MX2013009302A - Codec de audio que soporta modos de codificacion en el dominio del tiempo y en el dominio de la frecuencia. - Google Patents
Codec de audio que soporta modos de codificacion en el dominio del tiempo y en el dominio de la frecuencia.Info
- Publication number
- MX2013009302A MX2013009302A MX2013009302A MX2013009302A MX2013009302A MX 2013009302 A MX2013009302 A MX 2013009302A MX 2013009302 A MX2013009302 A MX 2013009302A MX 2013009302 A MX2013009302 A MX 2013009302A MX 2013009302 A MX2013009302 A MX 2013009302A
- Authority
- MX
- Mexico
- Prior art keywords
- mode
- frame
- modes
- decoder
- subgroup
- Prior art date
Links
- 230000001419 dependent effect Effects 0.000 claims abstract description 49
- 230000005284 excitation Effects 0.000 claims description 35
- 230000005236 sound signal Effects 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 28
- 238000013507 mapping Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 238000000695 excitation spectrum Methods 0.000 claims description 10
- 238000001228 spectrum Methods 0.000 claims description 10
- 230000015572 biosynthetic process Effects 0.000 claims description 9
- 238000003786 synthesis reaction Methods 0.000 claims description 9
- 238000007493 shaping process Methods 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 description 27
- 230000008859 change Effects 0.000 description 20
- 230000003044 adaptive effect Effects 0.000 description 7
- 230000003595 spectral effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013139 quantization Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/028—Noise substitution, i.e. substituting non-tonal spectral components by noisy source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
- G10L19/025—Detection of transients or attacks for time/frequency resolution switching
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/03—Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
- G10L19/07—Line spectrum pair [LSP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
- G10L19/107—Sparse pulse excitation, e.g. by using algebraic codebook
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/13—Residual excited linear prediction [RELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/22—Mode decision, i.e. based on audio signal content versus external parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/06—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Un códec de audio que soporta tanto modos de codificación en el dominio del tiempo como en el dominio de la frecuencia, que tiene bajo retardo y mayor eficiencia de codificación en términos de relación de tasa/distorsión, se obtiene mediante la configuración del codificador de audio de manera que este opera en diferentes modos de operación, de manera que si el modo de operación activo es un primer modo de operación, un grupo dependiente del modo de modos de codificación de trama disponibles está separado en un primer subgrupo de modos de codificación en el dominio del tiempo, y se superpone con un segundo subgrupo de modos de codificación en el dominio de la frecuencia, mientras que si el modo de operación activo es un segundo modo de operación, el grupo dependiente del modo de modos de codificación de trama disponibles se superpone con ambos subgrupos, es decir, el subgrupo de modos de codificación en el dominio del tiempo al igual que el subgrupo de modos de codificación en el dominio de la frecuencia.
Description
COPEC DE AUDIO QUE SOPORTA MODOS DE CODIFICACIÓN EN EL
DOMINIO DEL TIEMPO Y EN EL DOMINIO DE LA FRECUENCIA
Descripción
La presente invención se refiere a un códec [codificador-decodificador] de audio que soporta modos de codificación en el dominio del tiempo y en el dominio de la frecuencia.
Recientemente, el códec USAC del MPEG (Moving Pictures Expert Group (Grupo de Expertos de Películas)) ha sido finalizado. USAC (sigla en inglés de: codificación de discurso y audio unificada) es un códec que codifica señales de audio usando una mezcla de AAC (sigla en inglés de: codificación de audio avanzada), TCX (sigla en inglés de: excitación codificada de transformada) y ACELP [sigla en inglés de: Predicción Lineal excitada por código algebraico (algoritmo de codificación de discurso)]. En particular, MPEG USAC utiliza una longitud de trama de 1024 muestras, y permite el cambio entre tramas de tipo AAC de 1024 u 8 x 128 muestras, tramas TCX 1024, o dentro de una trama, una combinación de tramas ACELP (256 muestras), TCX 256 y TCX 5 2 tramas.
Inconvenientemente, el códec MPEG USAC no es adecuado para aplicaciones que necesitan bajo retardo. Las aplicaciones de comunicaciones bilaterales, por ejemplo, necesitan dichos cortos retardos. Debido a la longitud de trama de USAC de 1024 muestras, USAC no es un candidato para estás aplicaciones de bajo retardo.
En la solicitud WO 2011147950, se ha propuesto el enfoque USAC corrió adecuado para aplicaciones de bajo retardo, mediante la restricción de los modos de codificación del códec USAC a los modos TCX y ACELP, solamente. Además,
se ha propuesto hacer la estructura de la trama más fina, de modo de obedecer el requerimiento de bajo retardo impuesto por las aplicaciones de bajo retardo.
Sin embargo, existe aún la necesidad de proporcionar un codee de audio que permita el bajo retardo de codificación con una mayor eficiencia en términos de relación de tasa/distorsión. Preferentemente, el códec debe ser capaz de manipular de manera eficiente las señales de audio de diferentes tipos, tales como discurso y música.
En consecuencia, un objetivo de la presente invención es proporcionar un códec de audio que ofrezca bajo retardo para aplicaciones de bajo retardo, si bien con una mayor eficiencia de codificación en términos de, por ejemplo, relación de tasa/distorsión, en comparación con USAC.
Este objetivo es logrado por el objeto del asunto de las reivindicaciones independientes pendientes.
Una idea básica que subyace a la presente invención es que un códec de audio que soporte tanto los modos de codificación en el dominio del tiempo como en el dominio de la frecuencia, que tenga bajo retardo y mayor eficiencia de codificación en términos de relación de tasa/distorsión, puede obtenerse si el codificador de audio es configurado para operar en diferentes modos de operación, de manera tal que si el modo de operación activo es un primer modo de operación, un conjunto dependiente del modo, de modos de codificación de trama disponibles es separado hasta un primer subgrupo de modos de codificación en el dominio del tiempo, y se superpone con un segundo subgrupo de modos de codificación en el dominio de la frecuencia; mientras que si el modo de operación es un segundo modo de operación, el conjunto dependiente del modo, de modos de codificación de trama disponibles se superpone con ambos subgrupos, es
decir, el subgrupo de modos de codificación en el dominio del tiempo al igual que el subgrupo de modos de codificación en el dominio de la frecuencia. Por ejemplo, la decisión en términos de cuál del primero y el segundo modos de operación es accedido puede tomarse de acuerdo con una tasa de bits de transmisión disponible para la transmisión de la corriente de datos. A modo de ejemplo, la dependencia de la decisión puede ser tal de manera que el segundo modo de operación sea accedido en el caso de menores tasas de bits de transmisión disponibles, mientras que el primer modo de operación es accedido en el caso de mayores tasas de bits de transmisión disponibles. En particular, mediante la provisión del codificador con los modos de operación, es posible evitar que el codificador seleccione cualquier modo de codificación en el dominio del tiempo en caso de las circunstancias de codificación, determinadas por las tasas de bits de transmisión disponibles, de modo tal que la selección de cualquier modo de codificación en el dominio del tiempo con mucha probabilidad logrará la pérdida de la eficiencia de codificación cuando se considera la eficiencia de codificación en términos de la relación de tasa/distorsión a largo plazo. Con mayor precisión, los inventores de la presente invención hallaron que, mediante la supresión de la selección de cualquier modo de codificación en el dominio del tiempo en el caso de (relativo) ancho de banda de transmisión disponible alto, se logra un aumento de la eficiencia de codificación, mientras que, a corto plazo, puede asumirse que un modo de codificación en el dominio del tiempo debe ser preferible actualmente sobre los modos de codificación en el dominio de la frecuencia, y es muy probable que esta hipótesis resulte incorrecta si se analiza la señal de audio para un período más largo. Dicho mayor análisis, o de antemano, sin embargo, no es posible en aplicaciones de bajo retardo, y, en consecuencia, evitando que el
codificador acceda a cualquier modo de codificación en el dominio del tiempo de antemano se permite el logro de una mayor eficiencia de codificación.
De acuerdo con una realización de la presente invención, la ¡dea anterior es explotada al alcance de que la tasa de bits de la corriente de datos es adicionalmente aumentada. Si bien es bastante económico, en términos de tasa de bits, controlar sincrónicamente el modo de operación del codificador y del decodificador, o ni siquiera cuesta ninguna tasa de bits, ya que el sincronismo es proporcionado por algún otro medio, el hecho de que el codificador y el decodificador operen y cambien entre los modos de operación sincrónicamente puede ser explotado de manera de reducir la señalización excedente para señalizar los modos de codificación de trama asociados con las tramas individuales de la corriente de datos en porciones consecutivas de la señal de audio, respectivamente. En particular, si bien el asociador del decodificador puede estar configurado para realizar la asociación de cada uno de las tramas consecutivas de la corriente de datos con uno de los grupos dependientes del modo de la pluralidad de modos codificadores de trama dependientes de un elemento de sintaxis de trama asociado con las tramas de la corriente de datos, el asociador puede cambiar particularmente la dependencia del comportamiento de la asociación de acuerdo con el modo de operación activo. En particular, el cambio de la dependencia puede ser tal de manera que si el modo de operación activo es el primer modo de operación, el grupo dependiente del modo es separado en el primer subgrupo que se superpone con el segundo subgrupo, y si el modo de operación activo es el segundo modo de operación, el grupo dependiente del modo se superpone con ambos subgrupos. Sin embargo, son también posibles las soluciones menos estrictas que aumentan la tasa de bits, y que contemplan |a
explotación del conocimiento de las circunstancias asociadas con el modo de operación actual pendiente.
Los aspectos convenientes de las realizaciones de la presente invención son el tema de las reivindicaciones dependientes.
En particular, las realizaciones preferidas de la presente invención se describen en más detalle a continuación con respecto a las Figuras, en las cuales: la Fig. 1 muestra un diagrama de bloques de un decodificador de audio de acuerdo con una realización;
la Fig. 2 muestra un esquema de un cartografiado biyectivo entre los posibles valores del elemento de sintaxis de modo de trama y los modos de codificación de trama del grupo dependiente del modo, de acuerdo con una realización;
la Fig. 3 muestra un diagrama de bloques de un decodificador en el dominio del tiempo de acuerdo con una realización;
la Fig. 4 muestra un diagrama de bloques de un codificador en el dominio de la frecuencia de acuerdo con una realización;
la Fig. 5 muestra un diagrama de bloques de un codificador de audio de acuerdo con una realización; y
la Fig. 6 muestra una realización para codificadores en el dominio del tiempo y en el dominio de la frecuencia, de acuerdo con una realización.
Con respecto a la descripción de las figuras, se observa que las descripciones de elementos en una figura se aplicará igualmente a elementos que tienen el mismo signo de referencia asociado en otra figura, no pensados explícitamente de otro modo.
La Fig. 1 muestra un decodificador de audio 10 de acuerdo con una realización de la presente invención. El decodificador de audio comprende un decodificador en el dominio del tiempo 12 y un decodificador en el dominio de la frecuencia 14. Además, el decodificador de audio 10 comprende un asociador 16 configurado para asociar cada una de las tramas consecutivas 18a-18c de una corriente de datos 20, a uno de un grupo dependiente del modo, de una pluralidad 22 de modos de codificación de tramas que se ilustran ejemplarmente en la Fig. 1 como A, B y C. Puede haber más de tres modos de codificación de trama, y, por lo tanto, la cantidad puede cambiarse de tres a cualquier otra. Cada trama 18a-c corresponde a una de las porciones consecutivas 24a-c de una señal dé audio 26 que el decodificador de audio debe reconstruir a partir de la corriente de datos 20.
Con mayor precisión, el asociador 16 se conecta entre una entrada 28 del decodificador 10 por una parte, y entradas del decodificador en el dominio de tiempo 12 y el decodificador en el dominio de frecuencia 14, por otra parte, de manera de proveer de tramas asociadas 18a-c de la manera descripta en más detalle a continuación.
El decodificador en el dominio del tiempo 12 está configurado para decodificar tramas que tienen uno de un primer subgrupo 30 de uno o más de la pluralidad 22 de modos codificadores de trama asociados, y el decodificador en el dominio de la frecuencia 14 está configurado para decodificar tramas que tienen uno de un segundo subgrupo 32 de uno o más de la pluralidad 22 de modos codificadores de trama asociados. El primer y el segundo subgrupos están separados entre sí, como se ilustra en la Fig. 1. Con mayor precisión, el decodificador en el dominio del tiempo 12 tiene una salida, de manera de dar salida a las porciones reconstruidas 24a-c de la señal de audio 26
correspondiente a las tramas que tienen uno de los primeros subgrupos 30 de los modos codificadores de tramas asociados, y el decodificador en el dominio de la frecuencia 14 comprende una salida para dar salida a las porciones reconstruidas de la señal de audio 26 correspondiente a las tramas que tienen uno del segundo subgrupo 32 de modos de codificación de trama asociados.
Como se muestra en la Fig. 1 , el decodificador de audio 10 puede tener, opcionalmente, una combinadora 34 que está conectada entre las salidas del decodificador en el dominio del tiempo 12 y el decodificador en el dominio de la frecuencia 14 por una parte, y una salida 36 del decodificador 10, por otra parte. En particular, si bien la Fig. 1 sugiere que las porciones 24a-24c no se superpongan entre sí, sino que se sigan inmediatamente entre sí en el tiempo t, en cuyo caso, la combinadora 34 podría omitirse, es también posible que las porciones 24a-24c sean, al menos parcialmente, consecutivas en el tiempo t, aunque se superpongan parcialmente entre sí, por ejemplo, a fin de permitir la cancelación del aliasing del tiempo involucrada con una transformada superpuesta utilizada por el decodificador en el dominio de la frecuencia 14, por ejemplo, como es el caso de la realización más detallada posteriormente explicada del decodificador en el dominio de la frecuencia 14.
Antes de proseguir adicionalmente con la descripción de la realización de la Fig. 1 , debe observarse que el número de modos codificadores de trama A-C que se ilustra en la Fig. 1 es meramente ilustrativo. El decodificador de audio de la Fig. 1 puede soportar más de tres modos de codificación. En lo que sigue, los modos codificadores de trama del subgrupo 32 se denominan modos de codificación en el dominio de la frecuencia, mientras que los modos de codificación de trama del subgrupo 30 se denominan modos de codificación en el dominio del tiempo. El
asociador 16 avanza las tramas 15a-c de cualquier modo de codificación en el dominio del tiempo 30 hacia el decodificador en el dominio del tiempo 12, y las tramas 18a-c de cualquier modo de codificación en el dominio de la frecuencia, hacia el decodificador en el dominio de la frecuencia 14. La combinadora 34 registra correctamente las porciones reconstruidas de la señal de audio 26 como la salida de los decodificadores en el dominio del tiempo y en el dominio de la frecuencia 12 y 14, de manera de disponerse consecutivamente en el tiempo t como se indica en la Fig. 1. Opcionalmente, la combinadora 34 puede realizar una funcionalidad de superposición-adición entre las porciones de modo de codificación en el dominio de la frecuencia 24, u otras medidas específicas en las transiciones entre porciones inmediatamente consecutivas, tales como una funcionalidad de superposición— adición, para realizar la cancelación del aliasing entre las porciones que salen del decodificador en el dominio de la frecuencia 14. La cancelación del aliasing delantera puede efectuarse entre porciones inmediatamente siguientes 24a-c que salen de los decodificadores en el dominio del tiempo y en el dominio de la frecuencia 12 y 14, separadamente; es decir, para transiciones de las porciones de modo de codificación en el dominio de la frecuencia 24 a porciones de modo de codificación en el dominio del tiempo 24, y viceversa. Para otros detalles con respecto a las posibles ¡mplementaciones, se hace referencia a las realizaciones más detalladas que se describen adicionalmente a continuación.
Como será reseñado en más detalle a continuación, el asociador 16 está configurado para realizar la asociación de las tramas consecutivas 18a-c de la corriente de datos 20 con los modos de codificación de trama A-C, de manera tal que se evita el uso de un modo de codificación en el dominio de tiempo en los
casos donde el uso de dicho modo de codificación en el dominio de tiempo es inapropiado, por ejemplo, en los casos de altas tasas de bits de transmisión disponibles donde los modos de codificación en el dominio de tiempo probablemente sean ineficientes en términos de relación de tasa/distorsión en comparación con los modos de codificación en el dominio de la frecuencia, de modo que el uso del modo de codificación de trama en el dominio de tiempo para una cierta trama 18a-18c muy probablemente conduzca a una disminución en la eficiencia de la codificación.
En consecuencia, el asociador 16 está configurado para realizar la asociación de las tramas a los modos de codificación de trama, dependiente de un elemento de sintaxis en modo de trama asociado con las tramas 18a-c en la corriente de datos 20. Por ejemplo, la sintaxis de la corriente de datos 20 podría configurarse de manera que cada trama 18a-c comprende dicho elemento de sintaxis de modo de trama 38 para la determinación del modo de codificación de trama al cual pertenece la correspondiente trama 18a-c.
Además, el asociador 16 está configurado para operar en un modo activo de una pluralidad de modos de operación, o seleccionar un modo de operación actual de una pluralidad de modos de operación. El asociador 16 puede realizar esta selección de acuerdo con la corriente de datos o dependiente de una señal de control externa. Por ejemplo, como se reseñará en más detalle a continuación, el decodificador 10 cambia su modo de operación sincrónicamente con respecto al cambio de modo de operación en el codificador, y a fin de implementar el sincronismo, el codificador puede señalizar el modo de operación activo y el cambio en el modo activo de los modos de operación dentro de la corriente de datos 20. Alternativamente, el codificador y el decodificador 10 pueden ser
sincrónicamente controlados por alguna señal de control externa, tal como señales de control proporcionadas por capas de transporte inferiores tales como EPS [encapsulado post-scripf o RTP [sigla en inglés de: protocolo de transporte en tiempo real] o similares. La señal de control provista externamente puede, por ejemplo, ser indicativa de alguna tasa de bits de transmisión disponible.
A fin de ejemplificar o realizar la prevención de selecciones inapropiadas o de un uso inapropiado de modos de codificación en el dominio del tiempo como se reseña con anterioridad, el asociador 16 está configurado para cambiar la dependencia del comportamiento de la asociación de las tramas 18 a los modos de codificación de acuerdo con el modo de operación activo. En particular, si el modo de operación activo es un primer modo de operación, el grupo dependiente del modo, de la pluralidad de modos de codificación de trama es, por ejemplo, aquel expuesto en 40, que está separado del primer subgrupo 30 y se superpone con el segundo subgrupo 32, mientras que si el modo de operación activo es un segundo modo de operación, el grupo dependiente del modo es, por ejemplo, como se expone en 42 en la Fig. 1 , y se superpone con el primer y el segundo subgrupos 30 y 32.
Es decir, de acuerdo con la realización de la Fig. 1 , el decodificador de audio 10 es controlable por medio de la corriente de datos 20 o una señal de control externa, de manera de cambiar su modo de operación activo entre un primer modo y un segundo modo, a fin de cambiar el grupo, dependiente del modo de operación, de modos de codificación de tramas consecuentemente, a decir, entre 40 y 42, de manera que, de acuerdo con un modo de operación, el grupo dependiente del modo 40 está separado del grupo de modos codificadores en el dominio del tiempo, mientras que, en el otro modo de operación, el grupo
dependiente del modo 42 contiene por lo menos un modo de codificación en el dominio del tiempo, al igual que por lo menos un modo de codificación en el dominio de la frecuencia.
A fin de explicar el cambio en la dependencia del comportamiento de la asociación del asociador 16 en más detalle, se hace referencia a la Fig. 2, que muestra de manera ejemplar un fragmento de la corriente de datos 20, donde el fragmento incluye un elemento de sintaxis de modo de trama 38 asociado con una cierta trama 18a a 18c de la Fig. 1. En este sentido, se observa brevemente que la estructura de la corriente de datos 20 que se ejemplifica en la Fig. 1 ha sido aplicada meramente con propósitos ilustrativos, y que puede aplicarse también una estructura diferente. Por ejemplo, si bien las tramas 18a a 18c en la Fig. 1 se muestran como porciones simplemente conectadas o continuas de la corriente de datos 20, sin ningún intercalado en el medio, dicho intercalado también puede aplicarse. Además, si bien la Fig. 1 sugiere que el elemento de sintaxis de modo de trama 38 esté contenido dentro de la trama a la que se refiere, este no es necesariamente el caso. En cambio, los elementos de sintaxis de modo de trama 38 pueden posicionares dentro de la corriente de datos 20 fuera de las tramas 18a a 18c. Adicionalmente, el número de elementos de sintaxis de modo de trama 38 contenidos dentro de la corriente de datos 20 no necesariamente debe ser igual ál número de tramas 18a a 18c en la corriente de datos 20. En cambio, el elemento de sintaxis de modo de trama 38 de la Fig. 2, por ejemplo, puede asociarse con más de una de las tramas 18a a 18c en la corriente de datos 20.
En cualquier caso, de acuerdo con la manera en que el elemento de sintaxis de modo de trama 38 ha sido insertado en la corriente de datos 20, hay un cartografiado 44 entre el elemento de sintaxis de modo de trama 38 contenido y
transmitido por medio de la corriente de datos 20, y un grupo 46 de posibles valores del elemento de sintaxis de modo de trama 38. A modo de ejemplo, el elemento de sintaxis de modo de trama 38 puede insertarse en la corriente de datos 20 directamente, es decir, usando una representación binaria, tal como PCM [sigla en inglés de: modulación por impulsos codificados], o empleando un código de longitud variable y/o la codificación de entropía, tal como la codificación de Huffman o aritmética. En consecuencia, el asociador 16 puede configurarse para extraer 48, tal como mediante la codificación, el elemento de sintaxis de modo de trama 38 de la corriente de datos 20, de manera de derivar cualquiera del grupo 46 de posibles valores, donde los posibles valores son representativamente ilustrados en la Fig. 2 por pequeños triángulos. En el lado del codificador, la inserción 50 se realiza de manera correspondiente, tal como mediante la codificación.
Esto es, cada valor posible que el elemento de sintaxis de modo de trama 38 pueda asumir probablemente, es decir, cada valor posible dentro del rango de valores posibles 46 del elemento de sintaxis de modo de trama 38, se asocia con un cierto modo de la pluralidad de modos de codificación de trama A, B y C. En particular, hay un cartografiado biyectivo entre los posibles valores del grupo 46 por una parte, y el grupo dependiente del modo, de modos de codificación de trama, por otra parte. El cartografiado, ilustrado por la flecha de doble cabeza 52 en la Fig. 2, cambia de acuerdo con el modo de operación activo. El cartografiado biyectivo 52 es parte de la funcionalidad del asociador 16 que cambia el cartografiado 52 de acuerdo con el modo de operación activo. Como se explica con respecto a la Fig. 1 , si bien el grupo dependiente del modo 40 o 42 se superpone tanto con el subgrupo de modo codificador de trama 30 como con el 32
en el caso del segundo modo de operación ilustrado en la Fig. 2, el grupo dependiente del modo está separado, es decir, no contiene ninguno de los elementos, del subgrupo 30, en el caso del primer modo de operación. En otras palabras, el cartografiado biyectivo 52 cartografía el dominio de posibles valores del elemento de sintaxis de modo de trama 38 sobre el codominio de los modos de codificación de trama, denominados los grupos dependientes del modo 50 y 52, respectivamente. Como se ilustra en la Fig. 1 y en la Fig. 2 mediante el uso de las líneas sólidas de los triángulos para los posibles valores del grupo 46, el dominio del cartografiado biyectivo 52 puede permanecer igual en ambos modos de operación, es decir, el primer y el segundo modos de operación, mientras que el codominio del cartografiado biyectivo 52 cambia, como se ilustra y se describe con anterioridad.
Sin embargo, aun el número de posibles valores dentro del grupo 46 puede cambiar. Esto se indica mediante el triángulo trazado con una línea de puntos en la Fig. 2. Con mayor precisión, el número de modos de codificación de trama disponibles puede ser diferente entre el primer y el segundo modos de operación. En tal caso, sin embargo, aún se implementa el asociador 16 en cualquier caso, de modo que el codominio del cartografiado biyectivo 52 se comporte como se reseña anteriormente: no hay superposición entre el grupo dependiente del modo y el subgrupo 30, en el caso de que el primer modo de operación sea activo.
En otros términos, se observa lo siguiente. Internamente, el valor del elemento de sintaxis de modo de trama 38 puede ser representado por algún valor binario, cuyo rango de valores posible aloja el grupo 46 de valores posibles independientes del modo de operación actualmente activo. Aún con mayor precisión, el asociador 16 representa internamente el valor del elemento de
sintaxis de trama 38, con un valor binario de una representación binaria. Usando estos valores binarios, los valores posibles del grupo 46 se asignan en una escala ordinal de manera que los valores posibles del grupo 46 permanezcan comparables entre sí, aún en el caso de un cambio del modo de operación. El primer valor posible del grupo 46 de acuerdo con esta escala ordinal, por ejemplo, puede ser definido como aquel asociado con la mayor probabilidad entre los posibles valores del grupo 46, donde el segundo de los posibles valores del grupo 46 es continuamente aquel con la siguiente menor probabilidad, y asi sucesivamente. En consecuencia, los valores posibles del elemento de sintaxis de modo de trama 38 son entonces comparables entre sí, a pesar de un cambio del modo de operación. En este último ejemplo, puede suceder que el dominio y el codominio del cartografiado biyectivo 52, es decir, el grupo de valores posibles 46 y el grupo dependiente del modo, de modos de codificación de trama, permanezcan iguales, a pesar del cambio del modo de operación activo entre el primer y el segundo modos de operación, si bien el cartografiado biyectivo 52 cambia la asociación entre los modos de codificación de trama del grupo dependiente del modo por una parte, y los valores posibles comparables del grupo 46, por otra parte. En esta última realización, el decodificador 10 de la Fig. 1 es aún capaz de sacar ventaja de un codificador que actúa de acuerdo con las realizaciones posteriormente explicadas, a decir, evitando seleccionar los modos de codificación en el dominio del tiempo inapropiados, en el caso del primer modo de operación. Mediante la asociación de valores posibles más probables del grupo 46 únicamente con modos de codificación en el dominio de la frecuencia 32, en el caso del primer modo de operación, usando los valores posibles probables menores del grupo 46 para los modos de codificación en el dominio del tiempo 30
solo durante el primer modo de operación, y cambiando, a la vez, esta política, en el caso del segundo modo de operación, se logra una tasa de compresión más alta para la corriente de datos 20, si se usa la codificación de entropía para la inserción/extracción del elemento de sintaxis de modo de trama 38 en o de la corriente de datos 20. En otros términos, mientras que en el primer modo de operación, ninguno de los modos de codificación en el dominio del tiempo 30 puede asociarse con un valor posible del grupo 46 que tenga asociado una probabilidad mayor que la probabilidad para un posible valor cartografiado por él cartografiado 52 sobre cualquiera de los modos de codificación en el dominio de la frecuencia 32, dicho caso existe en el segundo modo de operación, donde por lo menos un modo de codificación en el dominio del tiempo 30 se asocia con dicho valor posible que tiene asociado una probabilidad más alta que otro valor posible asociado, de acuerdo con el cartografiado 52, con un modo de codificación en el dominio de la frecuencia 32.
La probabilidad recién mencionada asociada con valores posibles 46, y opcionalmente utilizada para su codificación y decodificación puede ser estática o adaptativamente cambiada. Pueden usarse diferentes grupos de estimaciones de probabilidades para diferentes modos de operación. En el caso del cambio adaptativo de la probabilidad, puede usarse la codificación de entropía adaptativa al contexto.
Como se ilustra en la Fig. 1 , una realización preferida para el asociador 16 es aquella de modo tal que la dependencia del comportamiento de la asociación depende del modo de operación activo, y el elemento de sintaxis de modo de trama 38 es codificado y decodificado respecto de la corriente de datos 20, de manera que un número de los posibles valores diferenciables dentro del grupo 46
es independiente del modo de operación activo, ya sea el primero, ya sea el segundo modos de operación. En particular, en el caso de la Fig. 1 , el número de valores posibles diferenciables es dos, como también se ilustra en la Fig. 2, cuando se consideran los triángulos con las líneas sólidas. En tal caso, por ejemplo, el asociador 16 puede configurarse de manera que, si el modo de operación activo es el primer modo de operación, el grupo dependiente del modo 40 comprende un primer y un segundo modos de codificación de trama A y B del segundo subgrupo 32 de modos de codificación de tramas, y el decodificador en el dominio de la frecuencia 14, que es responsable de estos modos de codificación de trama, está configurado para utilizar diferentes resoluciones en el dominio de la frecuencia, en la decodificación de las tramas que tienen uno del primer y el segundo modos de codificación de tramas A y B asociados. Mediante esta medida, un bit, por ejemplo, será suficiente para transmitir el elemento de sintaxis de modo de trama 38 dentro de la corriente de datos 20 directamente, es decir, sin ninguna otra codificación de entropía, donde solamente cambia el cartografiado biyectivo 52 con un cambio del primer modo de operación al segundo modo de operación, y viceversa.
Como será reseñado en más detalle a continuación con respecto a las Figs. 3 y 4, el decodificador en el dominio del tiempo 2 puede ser un decodificador de predicción lineal excitado por código, y el decodificador en el dominio de la frecuencia puede ser un decodificador de transformada configurado para la decodificación de las tramas que tienen cualquiera del segundo subgrupo de modos de codificación de tramas asociados, sobre la base de los niveles de coeficientes de transformada codificados en la corriente de datos 20.
A modo de ejemplo, ver la Fig. 3. La Fig. 3 muestra un ejemplo para el decodificador en el dominio del tiempo 12 y una trama asociada con un modo de codificación en el dominio del tiempo, de manera que esta pasa por el decodificador en el dominio del tiempo 12 a fin de obtener una correspondiente porción 24 de la señal de audio reconstruida 26. De acuerdo con la realización de la Fig. 3, y de acuerdo con la realización de la Fig. 4 que se describe más adelante, el decodificador en el dominio del tiempo 12, al igual que el decodificador en el dominio de la frecuencia, son decodificadores sobre la base de la predicción lineal configurados para obtener coeficientes de filtro de predicción lineal para cada trama de la corriente de datos 12. Si bien las Figs. 3 y 4 sugieren que cada trama 18 puede tener coeficientes de filtro de predicción lineal 16 allí incorporados, este no es necesariamente el caso. La tasa de transmisión LPC [sigla en inglés de: codificación lineal predictiva] a la cual los coeficientes de predicción lineal 60 son transmitidos dentro de la corriente de datos 12 puede ser igual a la tasa de trama de las tramas 18, o puede diferir de ella. No obstante, el codificador y el decodificador pueden operar de manera sincrónica con los coeficientes de filtro de predicción lineal individualmente asociados con cada trama, o pueden aplicarlos, mediante la interpolación a partir de la tasa de transmisión LPC a la tasa de aplicación LPC.
Como se muestra en la Fig. 3, el decodificador en el dominio del tiempo 12 puede comprender un filtro de síntesis de predicción lineal 62 y un constructor de señal de excitación 64. Como se expone en la Fig. 3, el filtro de síntesis de predicción lineal 62 es alimentado con los coeficientes de filtro de predicción lineal obtenidos de la corriente de datos 12 para la trama de codificación en el modo en el dominio del tiempo corriente 18. El constructor de señal de excitación 64 es
alimentado con un parámetro de excitación o código, tal como un índice de libro de códigos 66 obtenido de la corriente de datos 12 para la trama corrientemente decodificada 18 (que tiene un modo de codificación en el dominio del tiempo asociado). El constructor de señal de excitación 64 y el filtro de síntesis de predicción lineal 62 están conectados en serie de manera de dar salida a la porción de señal de audio correspondiente reconstruida 24 en la salida del filtro de síntesis 62. En particular, el constructor de señal de excitación 64 está configurado para construir una señal de excitación 68 usando el parámetro de excitación 66 que puede estar, como se indica en la Fig. 3, contenido dentro de la trama actualmente decodificada que tiene cualquier modo de codificación en el dominio del tiempo asociado. La señal de excitación 68 es un tipo de señal residual, cuya cubierta espectral está formada por el filtro de síntesis de predicción lineal 62. En particular, el filtro de síntesis de predicción lineal es controlado por los coeficientes de filtro de predicción lineal proporcionados dentro de la corriente de datos 20 para la trama actualmente decodificada (que tiene cualquier modo de codificación en el dominio del tiempo asociado), a fin de lograr la porción reconstruida 24 de la señal de audio 26.
Para más detalles con respecto a una posible implementacíón del decodificador CELP de la Fig. 3, se hace referencia a codees conocidos, tales como el arriba mencionado USAC [2] o el códec AMR-WB+ codee [1], por ejemplo. De acuerdo con estos codees, el decodificador CELP de la Fig. 3 puede implementarse como un decodificador ACELP de acuerdo con el cual la señal de excitación 68 se forma mediante la combinación de una señal controlada de código/parámetro, es decir, excitación de innovación, y una excitación adaptativa actualizada en forma continua que resulta de la modificación de una señal de
excitación finalmente obtenida y aplicada para una trama de modo de codificación en el dominio del tiempo inmediatamente precedente, de acuerdo con un parámetro de excitación adaptativo también proporcionado dentro de la corriente de datos 12 para la trama de modo de codificación en el dominio del tiempo actualmente decodificado 18. Por ejemplo, el parámetro de excitación adaptativo puede definir la demora de paso y la ganancia, de manera de prescribir la forma de modificar la excitación pasada en el sentido de paso y ganancia, a fin de obtener la excitación adaptativa para la corriente trama. La excitación de innovación puede derivar de un código 66 dentro de la trama corriente, donde el código define el número de pulsos y sus posiciones dentro de la señal de excitación. El código 66 puede usarse para una búsqueda de libro de códigos, o de otro modo, para definir, lógica o aritméticamente, los pulsos de la excitación de innovación, en términos de, por ejemplo, número y ubicación.
De manera similar, la Fig. 4 muestra una realización posible para el decodificador en el dominio de la frecuencia 14. La Fig. 4 muestra una trama corriente 8 que entra en el decodificador en el dominio de la frecuencia 14, donde la trama 18 tiene cualquier modo de codificación en el dominio de la frecuencia asociado. El decodificador en el dominio de la frecuencia 14 comprende un formador de ruido en el dominio de la frecuencia 70, cuya salida está conectada a un retransformador 72. La salida del retransformador 72, a su vez, es la salida del decodificador en el dominio de la frecuencia 14, que da salida a una porción reconstruida de la señal de audio correspondiente a la trama 18 que se ha decodificado actualmente.
Como se expone en la Fig. 4, la corriente de datos 20 puede transportar los niveles de coeficientes de transformada 74 y los coeficientes de filtro de predicción
lineal 76 para tramas que tienen cualquier modo de codificación en el dominio de la frecuencia asociado. Si bien los coeficientes de filtro de predicción lineal 76 pueden tener la misma estructura que los coeficientes de filtro de predicción lineal asociados con las tramas que tienen cualquier modo de codificación en el dominio del tiempo asociado, los niveles de coeficientes de transformada 74 tienen la función de representar la señal de excitación para las tramas en el dominio de la frecuencia 18 en el dominio de la transformada. Como se sabe por el USAC, por ejemplo, los niveles de coeficientes de transformada 74 pueden codificarse diferencialmente a lo largo del eje espectral. La exactitud de la cuantificación de los niveles de coeficientes de transformada 74 puede ser controlada por un factor de escala común o factor de ganancia. El factor de escala puede ser parte de la corriente de datos, y se asume que es parte de los niveles de coeficientes de transformada 74. Sin embargo, puede usarse también cualquier otro esquema de cuantificación. Los niveles de coeficientes de la transformada 74 son alimentados al formador de ruido en el dominio de la frecuencia 70. Lo mismo se aplica a los coeficientes de filtro de predicción lineal 76 para la trama en el dominio de la frecuencia actualmente decodificada 18. El formador de ruido en el dominio de la frecuencia 70 es entonces configurado para obtener un espectro de excitación de una señal de excitación de los niveles de coeficientes de la transformada 74, y para dar forma a este espectro de excitación espectralmente de acuerdo con los coeficientes de filtro de predicción lineal 76. Con mayor precisión, el formador de ruido en el dominio de la frecuencia 70 está configurado para descuantificar los niveles de coeficientes de la transformada 74, a fin de lograr el espectro de la señal de excitación. A continuación, el formador de ruido en el dominio de la frecuencia 70 convierte los coeficientes de filtro de predicción lineal 76 en un
espectro de peso de manera de corresponder con una función de transferencia de un filtro de síntesis de predicción lineal definido por los coeficientes de filtro de predicción lineal 76. Esta conversión puede involucrar una ODFT [sigla en inglés de: transformada de frecuencia discreta excedente] aplicada a las LPC, de manera de tornar las LPC en valores de peso espectrales. Pueden obtenerse otros detalles de las pautas USAC. Usando el espectro de peso, el formador de ruido en el dominio de la frecuencia 70 da forma, o pesa, al espectro de excitación obtenido por los niveles de coeficientes de la transformada 74, a fin de obtener el espectro de la señal de excitación. Mediante la forma o el peso, el ruido de cuantificación introducido del lado de la codificación mediante la cuantificación de los coeficientes de transformada es formado de manera de ser perceptivamente menos significativo. El retransformador 72 entonces retransforma el espectro de excitación formado como la salida por el formador de ruido en el dominio de la frecuencia 70, a fin de obtener la porción reconstruida correspondiente a la trama recién decodificado 18.
Como ya se mencionó con anterioridad, el decodificador en el dominio de la frecuencia 14 de la Fig. 4 puede soportar diferentes modos de codificación. En particular, el decodificador en el dominio de la frecuencia 4 puede configurarse a fin de aplicar diferentes resoluciones de tiempo-frecuencia en la decodificación de las tramas en el dominio de la frecuencia que tienen diferentes modos de codificación en el dominio de la frecuencia asociados. Por ejemplo, la retransformada efectuada por el retransformador 72 puede ser una transformada superpuesta, de acuerdo con la cual porciones ventaneadas consecutivas y mutuamente superpuestas de la señal por ser transformada se subdividen en transformadas individuales, donde la retransformación 72 logra una reconstrucción
de estas porciones ventaneadas 78a, 78b y 78c. La combinadora 34, como se observó con anterioridad, puede compensar mutuamente el aliasing que se produce en la superposición de estas porciones ventaneadas, por ejemplo, mediante un proceso de superposición-adición. La transformada superpuesta o retransformada superpuesta del retransformador 72 puede ser, por ejemplo, una transformada/retransformada críticamente muestreada que necesita la cancelación del aliasing del tiempo. A modo de ejemplo, el retransformador 72 puede realizar una MDCT (sigla en inglés de: transformada de coseno discreta modificada) inversa. En cualquier caso, los modos de codificación en el dominio de la frecuencia A y B, por ejemplo, pueden diferir entre sí en términos de que la porción 18 que corresponde a la trama actualmente decodificada 18 es o bien cubierta por una porción ventaneada 78—que además se extiende en las porciones precedente y sucesora- de manera de lograr un grupo mayor de niveles de coeficientes de transformada 74 dentro de la trama 18, o se presenta en dos subporciones ventaneadas consecutivas 78c y 78b -que se superponen mutuamente y que se extienden en la porción precedente y la porción sucesora, respectivamente, y se superponen con ellas -de manera de lograr dos grupos menores de niveles de coeficientes de transformada 74 dentro de la trama 18. En consecuencia, si bien el decodificador y el formador de ruido en el dominio de la frecuencia 70 y el retransformador 72, por ejemplo, pueden realizar dos operaciones -la conformación y retransformación- para las tramas del modo A, realizan manualmente, por ejemplo, una operación por trama del modo de codificación de trama B.
Las realizaciones para un decodificador de audio que se describen anteriormente fueron especialmente diseñadas para sacar ventana de un
codificador de audio que opera en diferentes modos de operación, a decir, de manera de cambiar la selección entre modos de codificación de trama entre estos modos de operación al alcance de que los modos de codificación de trama en el dominio del tiempo no sean seleccionados en uno de estos modos de operación, sino, solamente, en el otro. Sin embargo, debe observarse que las realizaciones para un codificador de audio que se describen a continuación además -por lo menos siempre que se involucre un subgrupo de estas realizaciones- se adaptan a un decodificador de audio que no soporta diferentes modos de operación. Esto es al menos así para aquellas realizaciones de codificadores de acuerdo con las cuales la generación de la corriente de datos no cambia entre estos modos de operación. En otras palabras, de acuerdo con algunas de las realizaciones para un codificador de audio que se describen a continuación, la restricción de la selección de modos de codificación de trama a modos de codificación en el dominio de la frecuencia en uno de los modos de operación no se refleja por sí misma dentro de la corriente de datos 12 donde los cambios del modo de operación son, en lo que respecta, transparentes (excepto la ausencia de modos de codificación de trama en el dominio del tiempo durante uno de estos modos de operación activos). Sin embargo, los decodificadores de audio especialmente dedicados de acuerdo con diversas realizaciones reseñadas anteriormente forman, junto con respectivas realizaciones para un codificador de audio reseñado con anterioridad, codees de audio que sacan ventaja adicional de la restricción de la selección del modo de codificación de trama durante un modo de operación especial correspondiente, por ejemplo, como se reseña con anterioridad, a condiciones de transmisión especiales.
La Fig. 5 muestra un codificador de audio de acuerdo con una realización de la presente invención. El codificador de audio de la Fig. 5 es generalmente indicado en 100, y comprende un asociador 102, un codificador en el dominio del tiempo 104 y un codificador en el dominio de la frecuencia 106, donde el asociador 102 está conectado entre una entrada 108 del codificador de audio 100 por una parte, y entradas del codificador en el dominio del tiempo 104 y el codificador en el dominio de la frecuencia 106, por otra parte. Las salidas del codificador en el dominio del tiempo 104 y el codificador en el dominio de la frecuencia 106 están conectadas a una salida 1 10 del codificador de audio 100. En consecuencia, la señal de audio por ser codificada, como se indica en 1 12 en la Fig. 5, ingresa en la entrada 108, y el codificador de audio 100 está configurado para formar una corriente de datos 1 4 desde allí.
El asociador 102 está configurado para asociar cada una de porciones consecutivas 1 16a a 1 16c, que corresponden a las porciones mencionadas con anterioridad 24 de la señal de audio 1 12, con uno de un grupo dependiente del modo, de una pluralidad de modos de codificación de trama (ver 40 y 42 de las Figs. 1 a 4).
El codificador en el dominio del tiempo 104 está configurado para codificar porciones 1 16a a 1 16c que tienen uno de un primer subgrupo 30 de uno o más de la pluralidad 22 de modos de codificación de trama asociados, en una correspondiente trama 1 18a a 1 18c de la corriente de datos 114. El codificador en el dominio de la frecuencia 106, asimismo, es responsable de la codificación de porciones que tienen cualquier modo de codificación en el dominio de la frecuencia del grupo 32 asociado, en una correspondiente trama 1 18a a 118c de la corriente de datos 114.
El asociador 102 está configurado para operar en un modo activo de una pluralidad de modos de operación. Con mayor precisión, el asociador 102 está configurado de manera que exactamente uno de la pluralidad de modos de operación es activo, si bien la selección del modo activo de la pluralidad de modos de operación puede cambiar durante la codificación secuencial de las porciones 116a a 116c de la señal de audio 112.
En particular, el asociador 102 está configurado de manera que si el modo de operación activo es un primer modo de operación, el grupo dependiente del modo se comporta como el grupo 40 de la Fig. 1 , a decir, que es separado en el primer subgrupo 30, y se superpone con el segundo subgrupo 32, si bien, si el modo de operación activo es un segundo modo de operación, el grupo dependiente del modo de la pluralidad de modos de codificación se comporta como el modo 42 de la Fig. 1 , es decir, que se superpone con el primer y el segundo subgrupos 30 y 32.
Como se reseña con anterioridad, la funcionalidad del codificador de audio de la Fig. 5 permite controlar externamente el codificador 100, de manera que se evita que este selecciona inconvenientemente cualquier modo de codificación de trama en el dominio del tiempo aunque las condiciones externas, tales como las condiciones de transmisión, sean tales que la selección preliminar de cualquier trama de codificación de trama en el dominio del tiempo muy probablemente logre una eficiencia de codificación menor, en términos de relación de tasa/distorsión, en comparación con la restricción de la selección solo a modos de codificación de trama en el dominio de la frecuencia. Como se muestra en la Fig. 5, el asociador 102, por ejemplo, puede estar configurado para recibir una señal de control externa 120. El asociador 102, por ejemplo, puede estar conectado a alguna
entidad externa de manera que la señal de control externa 120 proporcionada por la entidad externa sea indicativa de un ancho de banda de transmisión disponible para una transmisión de la corriente de datos 114. Esta entidad externa, por ejemplo, puede ser parte de una capa de transmisión menor subyacente, tal como menor en términos del modelo de capa OSI [modelo de interconexión de sistemas abiertos]. Por ejemplo, la entidad externa puede ser parte de una red de comunicaciones LTE. Naturalmente, la señal 122 puede ser proporcionada sobre la base de una estimación de un ancho de banda de transmisión disponible real, o de una estimación de un ancho de banda de transmisión disponible futuro medio. Como ya se observó con anterioridad con respecto a las Figs. 1 a 4, el "primer modo de operación" puede estar asociado con anchos de banda de transmisión disponibles menores que un cierto umbral, mientras que el "segundo modo de operación" puede asociarse con anchos de banda de transmisión disponibles que exceden el umbral predeterminado, a fin de evitar que el codificador 100 seleccione cualquier modo de codificación de trama en el dominio del tiempo en condiciones inapropiadas, donde la codificación en el dominio del tiempo muy probablemente logre la compresión más ineficiente, a decir, si los anchos de banda de transmisión disponibles son menores que un cierto umbral.
Sin embargo, debe observarse que la señal de control 120 además puede ser proporcionada por alguna otra entidad, por ejemplo, un detector de discurso que analiza la señal de audio por reconstruir, es decir, 112, de manera de distinguir entre las fases de discurso, es decir, los intervalos de tiempo, durante las cuales es predominante un componente de discurso dentro de la señal de audio 112, y las fases sin discurso, donde son predominantes otras fuentes de audio tales como música o similares, dentro de la señal de audio 112. La señal de
control 120 puede ser indicativa de este cambio en las fases de discurso y no discurso, y el asociador 102 puede estar configurado para cambiar entre los modos de operación, de manera consecuente. Por ejemplo, en las fases de discurso, el asociador 102 podría ingresar en el "segundo modo de operación" mencionado anteriormente, mientras que el "primer modo de operación" podría asociarse con las fases sin discurso, de manera de obedecer al hecho de que mediante la selección de los modos de codificación de trama en el dominio del tiempo durante las fases sin discurso muy probablemente se logra una compresión menos eficiente.
Si bien el asociador 102 puede estar configurado para codificar un elemento de sintaxis de modo de trama 122 (comparar el elemento de sintaxis 38 en la Fig. 1 ) en la corriente de datos 1 14, de manera de indicar, para cada porción 1 16a a 116c, a cuál modo de codificación de trama de la pluralidad de modos de codificación de trama está asociada la respectiva porción, la inserción de este elemento de sintaxis de modo de trama 122 en una corriente de datos 1 14 puede no depender del modo de operación, a fin de lograr la corriente de datos 20 con los elementos de sintaxis de modo de trama 38 de las Figs. 1 a 4. Como ya se menciona con anterioridad, la generación de corriente de datos de la corriente de datos 1 14 puede realizarse independientemente del modo de operación actualmente activo.
Sin embargo, en términos de la tasa de datos excedente, debe preferirse si la corriente de datos 1 14 es generada por el codificador de audio 100 de la Fig. 5, de manera de lograr la corriente de datos 20 que se describe con anterioridad con respecto a las realizaciones de las Figs. 1 a 4, de acuerdo con las cuales la
generación de la corriente de datos es convenientemente adaptada al modo de operación actualmente activo.
En consecuencia, de acuerdo con una realización del codificador de audio 100 de la Fig. 5 que se adapta a las realizaciones que se describen con anterioridad para el decodificador de audio con respecto a las Figs. 1 a 4, el asociador 102 puede estar configurado para codificar el elemento de sintaxis de modo de trama 122 en la corriente de datos 114 usando el cartografiado biyectivo 52 entre el grupo de posibles valores 46 del elemento de sintaxis de modo de trama 122 asociado con una respectiva porción 116a a 116c por una parte, y el grupo dependiente del modo, de los modos de codificación de trama, por otra parte, donde dicho cartografiado biyectivo 52 cambia de acuerdo con el modo de operación activo. En particular, el cambio puede ser tal de manera que, si el modo de operación activo es un primer modo de operación, el grupo dependiente del modo se comporta como el grupo 40, es decir, es separado en el primer subgrupo 30 y se superpone con el segundo subgrupo 32, mientras que si el modo de operación activo es el segundo modo de operación, el grupo dependiente del modo es como el grupo 42, es decir, se superpone tanto con el primer como con el segundo subgrupos 30 y 32. En particular, como ya se mencionó con anterioridad, el número de posibles valores en el grupo 46 puede ser dos, sin consideración de que el modo de operación activo sea el primero o el segundo modos de operación, y el asociador 102 puede estar configurado de manera que si el modo de operación activo es el primer modo de operación, el grupo dependiente del modo comprende los modos de codificación de trama en el dominio de la frecuencia A y B, y el codificador en el dominio de la frecuencia 106 puede configurarse a fin de usar diferentes resoluciones de tiempo-frecuencia en la codificación de las
respectivas porciones 1 16a a 1 16c, de acuerdo con su codificación de trama, modo A o modo B.
La Fig. 6 muestra una realización para una posible implementación del codificador en el dominio del tiempo 104 y un codificador en el dominio de la frecuencia 106, correspondiente al hecho ya observado con anterioridad, de acuerdo con la cual puede usarse la codificación de predicción lineal excitada por código para el modo de codificación de trama en el dominio del tiempo, mientras que se usa la codificación de predicción lineal de excitación codificada por la transformada, para los modos de codificación en el dominio de la frecuencia. Por lo tanto, de acuerdo con la Fig. 6, el codificador en el dominio del tiempo 104 es un codificador de predicción lineal excitado por código, y el codificador en el dominio de la frecuencia 106 es un codificador de transformada configurado para codificar las porciones que tienen cualquier modo de codificación de trama en el dominio de la frecuencia asociado, usando niveles de coeficientes de transformada, y su codificación en las correspondientes tramas 1 18a a 1 18c de la corriente de datos 1 14.
A fin de explicar una posible implementación para el codificador en él dominio del tiempo 104 y el codificador en el dominio de la frecuencia 106, se hace referencia a la Fig. 6. De acuerdo con la Fig. 6, el codificador en el dominio de la frecuencia 106 y el codificador en el tiempo 104 tienen propiedad común o comparten un analizador LPC 130. Debe observarse, sin embargo, que esta circunstancia no es decisiva para la presente realización, y que puede usarse también una implementación diferente de acuerdo con la cual ambos codificadores, 104 y 106, están completamente separados entre sí. Además, con respecto a las realizaciones de codificador al igual que a las realizaciones de
decodificador que se describen con anterioridad con respecto a las Figs. 1 y 4, se observa que la presente invención no se restringe a los casos donde ambos modos de codificación, es decir, los modos de codificación de trama en el dominio de la frecuencia, al igual que los modos de codificación de trama en el dominio del tiempo, son sobre la base de la predicción lineal. En cambio, las realizaciones de codificador y decodificador son también transferibles a los casos donde se implementa cualquiera de la codificación en el dominio del tiempo y la codificación en el dominio de la frecuencia, de manera diferente.
Nuevamente con referencia a la descripción de la Fig. 6, el codificador en el dominio de la frecuencia 106 de la Fig. 6 comprende, además del analizador LPC 130, un transformador 132, un conversor de peso LPC-dominio de la frecuencia 134, un formador de ruido en el dominio de la frecuencia 136 y un cuantificador 138. El transformador 132, el formador de ruido en el dominio de la frecuencia 136 y el cuantificador 138 están serialmente conectados entre una entrada común 140 y una salida 142 del codificador en el dominio de la frecuencia 106. El conversor LPC 134 está conectado entre una salida del analizador LPC 130 y una entrada de peso del formador de ruido en el dominio de la frecuencia 136. Una entrada del analizador LPC 130 está conectada a la entrada común 140.
En cuanto al codificador en el dominio del tiempo 104, este comprende, además del analizador LPC 130, un filtro de análisis LP 144 y un aproximador de señal de excitación sobre la base de código 146, ambos, serialmente conectados entre la entrada común 140 y una salida 148 del codificador en el dominio del tiempo 104. Se conecta una entrada de coeficiente de predicción lineal del filtro de análisis LP 144 a la salida del analizador LPC 130.
En la codificación de la señal de audio 112 que ingresa en la entrada 140, el analizador LPC 130 determina en forma continua los coeficientes de predicción lineal para cada porción 116a a 116c de la señal de audio 112. La determinación de LPC puede involucrar la determinación de autocorrelación de porciones ventaneadas consecutivas -superpuestas o no superpuestas- de la señal de audio -realizando una estimación de LPC sobre las autocorrelaciones resultantes (opcionalmente, con el sometimiento previo de las autocorrelaciones al ventaneado Lag), por ejemplo, usando un algoritmo de (Wiener-)Levison-Durbin o un algoritmo de Schur, u otro.
Como se describe con respecto a las Figs. 3 y 4, el analizador LPC 130 no necesariamente señaliza los coeficientes de predicción lineal dentro de la corriente de datos 1 14 a una tasa de transmisión LPC igual a la tasa de trama de las tramas 118a a 1 8c. Puede usarse además una tasa aún más alta que dicha tasa. Generalmente, el analizador LPC 130 puede determinar la información LPC 60 y 76 a una tasa de determinación LPC definida por la tasa arriba mencionada de autocorrelaciones, por ejemplo, sobre la base de la cual se determinan los LPC. A continuación, el analizador LPC 130 puede insertar la información LPC 60 y 76 en la corriente de datos a una tasa de transmisión LPC que puede ser menor que la tasa de determinación LPC, y los codificadores TD y FD 104 y 106, a su vez, pueden aplicar los coeficientes de predicción lineal con su actualización a una tasa de aplicación LPC superior a la tasa de transmisión LPC, mediante la interpolación de la información LPC transmitida 60 y 76 dentro de las tramas 118a a 118c de la corriente de datos 114. En particular, como el codificador FD 106 y el decodificador FD aplican los coeficientes LPC una vez por transformada, la tasa de aplicación LPC dentro de las tramas FD puede ser menor que la tasa a la cual
los coeficientes LPC aplicados en el codificador/decodificador TD son adaptados o actualizados mediante la interpolación a partir de la tasa de transmisión de LPC. Como la interpolación también puede efectuarse de manera sincrónica, del lado de la decodificación, los mismos coeficientes de predicción lineal están disponibles para los codificadores en el dominio del tiempo y en el dominio de la frecuencia, por una parte, y los decodificadores en el dominio del tiempo y en el dominio de la frecuencia, por otra parte. En cualquier caso, el analizador LPC 130 determina los coeficientes de predicción lineal para la señal de audio 112 a alguna tasa de determinación LPC igual o superior a la tasa de trama, y los inserta en la corriente de datos a una tasa de transmisión LPC que puede ser igual a la tasa de determinación LPC, o inferior a ella. El filtro de análisis LP 144, sin embargo, puede interpolar de manera de actualizar el filtro de análisis LPC a una tasa de aplicación LPC superior a la tasa de transmisión LPC. El conversor LPC 134 puede o no realizar la interpolación de manera de determinar los coeficientes LPC para cada transformada o cada LPC para la conversión de peso espectral necesaria. A fin de transmitir los coeficientes LPC, estos pueden someterse a la cuantificación en un dominio apropiado, tal como en el dominio LSF/LSP.
El codificador en el dominio del tiempo 104 puede operar de la siguiente manera. El filtro de análisis LP puede filtrar porciones de modo de codificación en el dominio del tiempo de la señal de audio 112 de acuerdo con la salida de coeficiente de predicción lineal por el analizador LPC 130. En la salida del filtro de análisis LP 144, una señal de excitación 150 es así derivada. La señal de excitación es aproximada por el aproximador 146. En particular, el aproximador 146 establece un código, tal como los índices de libro de códigos u otros parámetros, a fin de aproximar la señal de excitación 150, por ejemplo, mediante
la minimización o maximización de alguna medida de optimización definida, por ejemplo, por una desviación de la señal de excitación 150 por una parte, y la señal de excitación sintéticamente generada como es definida por el índice de libro de códigos por otra parte, en el dominio sintetizado, es decir, luego de aplicar el respectivo filtro de síntesis de acuerdo con los LPC sobre las respectivas señales de excitación. La medida de optimización, en forma opcional, puede ser desviaciones perceptivamente enfatizadas en bandas de frecuencia perceptivamente más importantes. La excitación de innovación determinada por el código establecido por el aproximador 146 puede denominarse un parámetro de innovación.
En consecuencia, el aproximador 146 puede dar salida a uno o más parámetros de innovación por porción de modo de codificación de trama en el dominio del tiempo, de manera de ser insertados en correspondientes tramas que tienen un modo de codificación en el dominio del tiempo asociado, mediante, por ejemplo, el elemento de sintaxis de modo de trama 122. El codificador en el dominio de la frecuencia 106, a su vez, puede operar de la siguiente manera. El transformador 132 transforma las porciones en el dominio de la frecuencia de la señal de audio 112 usando, por ejemplo, una transformada superpuesta, de manera de obtener uno o más espectros por porción. El espectrograma resultante en la salida del transformador 32 entra en el formador de ruido en el dominio de la frecuencia 136, que da forma a la secuencia de espectros que representan el espectrograma de acuerdo con los LPC. Para este fin, el conversor LPC 134 convierte los coeficientes de predicción lineal del analizador LPC 130 en valores de peso en el dominio de la frecuencia, de manera de pesar espectralmente los espectros. Esta vez, el peso espectral es realizado de manera que resulta una
función de transferencia del filtro de análisis LP. Es decir, una ODFT puede usarse, por ejemplo, a fin de convertir los coeficientes LPC en pesos espectrales que entonces pueden usarse para dividir la salida de los espectros del transformador 132, mientras que la multiplicación se usa en el lado del decodificador.
A continuación, el cuantificador 138 cuantifica la salida de espectro d excitación resultante por medio del formador de ruido en el dominio de la frecuencia 136, en niveles de coeficientes de transformada 60 para la inserción en las correspondientes tramas de la corriente de datos 114.
De acuerdo con las realizaciones que se describen anteriormente, una realización de la presente invención puede ser derivada cuando se modifica el codee USAC que se describe en la porción introductoria de la memoria descriptiva de la presente solicitud, mediante la modificación del codificador USAC de manera de operar en diferentes modos de operación, con el objetivo de evitar la selección del modo ACELP en el caso de un cierto modo de operación. A fin de permitir el logro de un menor retardo, el códec USAC puede ser adicionalmente modificado de la siguiente manera: por ejemplo, independientemente del modo de operación, solo pueden usarse los modos de codificación de trama TCX y ACELP. A fin de lograr un menor retardo, la longitud de trama puede reducirse de manera de alcanzar un entramado de 20 milisegundos. En particular, al tornar un códec USAC más eficiente de acuerdo con las realizaciones anteriores, los modos de operación de USAC, a decir, banda angosta (NB, según su sigla en inglés), banda ancha (WB, según su sigla en inglés) y banda superancha (SWB, según su sigla en inglés), pueden corregirse, de manera que solamente un subgrupo apropiado de los modos de codificación de trama disponibles totales esté disponible dentro
de los modos de operación individuales, de acuerdo con la tabla explicada a continuación.
Como resulta claro de la tabla anterior, en las realizaciones que se describen anteriormente, el modo de operación del decodificador puede no solo ser determinado a partir de una señal externa o de la corriente de datos exclusivamente, sino sobre la base de una combinación de ambas. Por ejemplo, en la tabla anterior, la corriente de datos puede indicar al decodificador un modo principal, es decir, NB, WB, SWB, FB, a modo de un elemento de sintaxis de modo de operación común que se presenta en la corriente de datos en alguna tasa que puede ser inferior a la tasa de trama. El codificador inserta este elemento de sintaxis además de los elementos de sintaxis 38. Sin embargo, el modo de operación exacto puede necesitar de inspección de una señal externa adicional indicativa de la tasa de datos disponible. En el caso de SWB, por ejemplo, el modo
exacto depende de la tasa de datos disponible que yace debajo de los 48 kbps, igual o superior a 48 kbps, e inferior a 96 kbps, o igual o superior a 96 kbps.
Con respecto a las realizaciones anteriores, debe observarse que, si bien de acuerdo con realizaciones alternativas, se prefiere que el grupo de la totalidad de la pluralidad de modos de codificación de trama con los cuales son asociables las porciones de tramas/tiempo de la señal de información consista exclusivamente en modos de codificación de trama en el dominio del tiempo o en el dominio de la frecuencia, el caso puede ser diferente, de manera que también pueda haber uno o más de un modo de codificación de trama que no sea un modo de codificación en el dominio del tiempo ni en el dominio de la frecuencia.
Si bien algunos aspectos se han descripto en el contexto de un aparato, es claro que estos aspectos además representan una descripción del correspondiente método, donde un bloque o dispositivo corresponde a un paso de método o a un rasgo de paso de método. En forma análoga, los aspectos descriptos en el contexto de un paso de método además representan una descripción de un correspondiente bloque, ítem o rasgo de un correspondiente aparato. Algunos o la totalidad de los pasos de método pueden ser ejecutados por (o usando) un aparato de soporte físico, por ejemplo, un microprocesador, una computadora programable o un circuito electrónico. En algunas realizaciones, uno o más de los pasos de método más importantes pueden ser ejecutados por dicho aparato.
De acuerdo con ciertos requisitos de implementación, las realizaciones de la invención pueden ser implementadas en soporte físico o en soporte lógico. La implementación puede realizarse usando un medio de almacenamiento digital, por ejemplo, un disco flexible, un DVD [disco versátil digital], un Blu-Ray, un CD [disco
compacto], una ROM [sigla en inglés de: memoria de solo lectura], una PROM [sigla en inglés de: memoria de solo lectura programable], una EPROM [sigla en inglés de: memoria de solo lectura programable borrable], una EEPROM [sigla en inglés de: memoria de solo lectura programable y borrable electrónicamente] o una memoria FLASH, que tienen señales de control legibles electrónicamente allí almacenadas, que cooperan (o son capaces de cooperar) con un sistema de computadora programable de manera de efectuar el respectivo método. Por lo tanto, el medio de almacenamiento digital puede ser legible por computadora.
Algunas realizaciones de acuerdo con la invención comprenden un portador de datos que tiene señales de control legibles electrónicamente, que son capaces de cooperar con un sistema de computadora programable, de modo de realizar uno de los métodos que se describen en esta solicitud.
En general, las realizaciones de la presente invención pueden ¡mplementarse como un producto de programa para computadora con un código de programa, donde el código de programa opera para llevar a cabo uno de los métodos cuando el producto de programa de computadora se ejecuta en una computadora. El código de programa, por ejemplo, puede ser almacenado en un portador legible por una máquina.
Otras realizaciones comprenden el programa de computadora para realizar uno de los métodos que se describen en esta solicitud, almacenado en un portador legible por una máquina.
En otras palabras, una realización del método de la invención, es, por lo tanto, un programa para computadora que tiene un código de programa para realizar uno de los métodos que se describen en esta solicitud, cuando el programa de computadora se ejecuta en una computadora.
Una realización adicional de los métodos de la invención es, por lo tanto, un portador de datos (o un medio de almacenamiento digital, o un medio legible por computadora) que comprende, allí grabado, el programa de computadora para efectuar uno de los métodos que se describen en esta solicitud. El portador de datos, el medio de almacenamiento digital o el medio grabado habitualmente son tangibles y/o no transicionales.
Una realización adicional del método de la invención es, por lo tanto, una corriente de datos o una secuencia de señales que representa el programa de computadora para realizar uno de los métodos que se describen en esta solicitud. La corriente de datos o la secuencia de señales, por ejemplo, puede configurarse para ser transferida por medio de una conexión de comunicación de datos, por ejemplo, mediante la Internet.
Una realización adicional comprende un medio de procesamiento, por ejemplo, una computadora, o un dispositivo lógico programable, configurado o adaptado para realizar uno de los métodos que se describen en esta solicitud.
Una realización más comprende una computadora que tiene instalado el programa de computadora para llevar a cabo uno de los métodos que se describen en la presente solicitud.
Una realización adicional de acuerdo con la invención comprende un aparato o un sistema configurado para la transferencia (por ejemplo, de manera electrónica u óptica) de un programa de computadora para la realización de uno de los métodos que se describen en esta solicitud, a un receptor. El receptor puede ser, por ejemplo, una computadora, un dispositivo móvil, un dispositivo de memoria o similar. El aparato o el sistema, por ejemplo, puede comprender un servidor de archivo para la transferencia del programa de computadora al receptor.
En algunas realizaciones, puede usarse un dispositivo lógico programable (por ejemplo, un serie de puertas lógicas programable en campo) a fin de llevar a cabo a cabo algunas o todas las funcionalidades de los métodos que se describen en esta solicitud. En algunas realizaciones, una serie de puertas lógicas programable en campo puede cooperar con un microprocesador, a fin de llevar a cabo uno de los métodos que se describen en esta solicitud. En general, los métodos se llevan a cabo, preferentemente, por medio de cualquier aparato de soporte físico.
Las realizaciones descriptas con anterioridad son meramente ilustrativas de los principios de la presente invención. Debe entenderse que serán evidentes para los expertos en la técnica modificaciones y variaciones de las disposiciones y los detalles que se describen en esta solicitud. Por lo tanto, se tiene la intención de limitarse solo al alcance de las reivindicaciones de patente inminentes, y no a los detalles específicos que se presentan a modo de descripción y explicación de las realizaciones de la presente solicitud.
Literatura:
[1]: 3GPP, "Audio codee processing functions; Extended Adaptive Multi-Rate - Wideband (AMR-WB+) codee; Transcoding functions", 2009, 3GPP TS 26.290.
[2]: USAC codee (Unified Speech and Audio Codee), ISO/IEC CD 23003-3 fechado 24 de septiembre de 2010.
Claims (18)
1. Un decodificador de audio que comprende: un decodificador en el dominio del tiempo (12); un decodificador en el dominio de la frecuencia (14); un asociador (16) configurado para asociar cada una de tramas consecutivas (18a-c) de una corriente de datos (20), cada una de los cuales representa una correspondiente porción consecutiva (24a-24c) de una señal de audio, con uno de un grupo dependiente del modo, de una pluralidad (22) de modos de codificación de trama; donde el decodificador en el dominio del tiempo (12) está configurado para decodificár tramas (18a-c) que tienen uno de un primer subgrupo (30) de uno o más de la pluralidad (22) de modos de codificación de trama asociados, y el decodificador en el dominio de la frecuencia (14) está configurado para decodificár tramas (18a-c) que tienen uno de un segundo subgrupo (32) de uno o más de la pluralidad (22) de modos de codificación de trama asociados, donde el primer y el segundo subgrupos están separados entre sí; donde el asociador (16) está configurado para realizar la asociación dependiente de un elemento de sintaxis de modo de trama (38) asociado con las tramas (18a-c) en la corriente de datos (20), y operar en un modo activo de una pluralidad de modos de operación, donde la selección del modo de operación activo, de la pluralidad de modos de operación, depende de la corriente de datos o de una señal de control externa, y cambia la dependencia del comportamiento de la asociación de acuerdo con el modo de operación activo.
2. El decodificador de audio de acuerdo con la reivindicación 1 , donde el asociador (16) está configurado de manera que si el modo de operación activo es un primer modo de operación, el grupo dependiente del modo (40) de la pluralidad de modos de codificación de trama está separado en el primer subgrupo (30) y se superpone con el segundo subgrupo (32); y si el modo de operación activo es un segundo modo de operación, el grupo dependiente del modo (42) de la pluralidad de modos de codificación de trama se superpone con el primer y el segundo subgrupos (30, 32).
3. El decodificador de audio de acuerdo con la reivindicación 1 o 2, donde el elemento de sintaxis de modo de trama es codificado en la corriente de datos (20), de manera que un número de posibles valores diferenciables para el elemento de sintaxis de modo de trama (38) que se relaciona con cada trama es independiente de si el modo de operación activo es el primero o el segundo modo de operación.
4. El decodificador de audio de acuerdo con la reivindicación 3, donde el número de valores posibles diferenciables es dos, y el asociador (16) está configurado de manera que, si el modo de operación activo es el primer modo de operación, el grupo dependiente del modo (40) comprende un primer y un segundo modos de codificación de trama del segundo subgrupo (32) de uno o más modos de codificación de trama, y el decodificador en el dominio de la frecuencia (14) está configurado para el uso de diferentes resoluciones de tiempo-frecuencia en la decodificación de tramas que tienen el primer y el segundo modos de codificación de trama asociados.
5. El decodificador de audio de acuerdo con cualquiera de las reivindicaciones previas, donde el decodificador en el dominio del tiempo (12) es un decodificador de predicción lineal excitado por código.
6. El decodificador de audio de acuerdo con cualquiera de las reivindicaciones previas, donde el decodificador en el dominio de la frecuencia es un decodificador de transformada configurado para decodificar las tramas que tienen uno del segundo subgrupo (32) de uno o más de los modos de codificación de trama asociados, sobre la base de niveles de coeficientes de transformada allí codificados.
7. El decodificador de audio de acuerdo con cualquiera de las reivindicaciones previas, donde el decodificador en el dominio del tiempo (12) y el decodificador en el dominio de la frecuencia son decodificadores sobre la base de LP configurados para obtener coeficientes de filtro de predicción lineal para cada trama, a partir de la corriente de datos, donde el decodificador en el dominio del tiempo (12) está configurado para reconstruir las porciones de la señal de audio (26) correspondientes a las tramas que tienen uno del primer subgrupo de uno o más de los modos de codificación de trama asociados, mediante la aplicación de un filtro de síntesis LP de acuerdo con los coeficientes de filtro LPC para las tramas que tienen uno del primer subgrupo de uno o más de la pluralidad de modos codificadores de trama asociados, sobre una señal de excitación construida usando índices de libro de códigos en las tramas que tienen uno del primer subgrupo de uno o más de la pluralidad de modos de codificación de trama asociados, y el decodificador en el dominio de la frecuencia (14) está configurado para reconstruir las porciones de la señal de audio correspondientes a las tramas que tienen uno del segundo subgrupo de uno o más de los modos de codificación de trama asociados, mediante la conformación de un espectro de excitación definido por niveles de coeficientes de transformada en las tramas que tienen uno del segundo subgrupo asociado, de acuerdo con los coeficientes de filtro LPC para las tramas que tienen uno del segundo subgrupo asociado, y la retransformación del espectro de excitación formado.
8. Un codificador de audio que comprende: un codificador en el dominio del tiempo (104); un codificador en el dominio de la frecuencia (106); y un asociador (102) configurado para asociar cada una de porciones consecutivas (116a-c) de una señal de audio (112) con uno de un grupo dependiente del modo (40, 42) de una pluralidad (22) de modos de codificación de trama; donde el codificador en el dominio del tiempo (104) está configurado para codificar porciones que tienen uno de un primer subgrupo (30) de uno o más de la pluralidad (22) de modos codificadores de trama asociados, en una correspondiente trama (118a-c) de una corriente de datos (114), y donde el codificador en el dominio de la frecuencia (106) está configurado para codificar porciones que tienen uno de un segundo subgrupo (32) de uno o más de la pluralidad de modos de codificación asociados, en una correspondiente trama de la corriente de datos; donde el asociador (102) está configurado para operar en un modo activo de una pluralidad de modos de operación, de manera que, si el modo de operación activo es un primer modo de operación, el grupo dependiente del modo (40) de la pluralidad de modos de codificación de trama está separado en el primer subgrupo (30) y se superpone con el segundo subgrupo (32), y si el modo de operación activo es un segundo modo de operación, el grupo dependiente del modo de la pluralidad de modos de codificación se superpone con el primer y el segundo subgrupos (30, 32).
9. El codificador de audio de acuerdo con la reivindicación 8, donde el asociador (102) está configurado para codificar un elemento de sintaxis de modo de trama (122) en la corriente de datos (114), a fin de indicar, para cada porción, a cuál modo de codificación de trama de la pluralidad de modos de codificación de trama está asociada la respectiva porción.
10. El codificador de audio de acuerdo con la reivindicación 9, donde el asociador (102) está configurado para codificar el elemento de sintaxis de modo de trama (122) en la corriente de datos (114) usando un cartografiado biyectivo entre un grupo de posibles valores del elemento de sintaxis de modo de trama asociado con una respectiva porción por una parte, y el grupo dependiente del modo de los modos de codificación de trama, por otra parte, donde dicho cartografiado biyectivo (52) cambia de acuerdo con el modo de operación activo.
11. [N. de T.: numeración de esta reivindicación de acuerdo con el texto en inglés del documento adjunto] El codificador de audio de acuerdo con la reivindicación 9, donde el asociador (102) está configurado de manera que si él modo de operación activo es el primer modo de operación, el grupo dependiente del modo de la pluralidad de modos codificadores de trama está separado en el primer subgrupo (30) y se superpone con el segundo subgrupo (32), y si el modo de operación activo es un segundo modo de operación, el grupo dependiente del modo de la pluralidad de modos de codificación de trama se superpone con el primer y el segundo subgrupos.
12. El decodificador de audio de acuerdo con la reivindicación 1 1 , donde un número de posibles valores en el grupo de posibles valores es dos, y él asociador (102) está configurado de manera que, si el modo de operación activo es el primer modo de operación, el grupo dependiente del modo comprende un primer y un segundo modo de codificación de trama del segundo grupo de uno o más modos de codificación de trama, y codificador en el dominio de la frecuencia está configurado para utilizar diferentes resoluciones de tiempo-frecuencia en la codificación de porciones que tienen el primer y el segundo modos de codificación de trama asociados.
13. El codificador de audio de acuerdo con cualquiera de las reivindicaciones 8 a 12, donde el codificador en el dominio del tiempo (104) es un codificador de predicción lineal excitado por código.
14. El codificador de audio de acuerdo con cualquiera de las reivindicaciones 8 a 13, donde el codificador en el dominio de la frecuencia (106) es un codificador de transformada configurado para codificar las porciones que tienen uno del segundo subgrupo de uno o más de los modos de codificación de trama asociados usando niveles de coeficientes de transformada, y codificarlas en las correspondientes tramas de la corriente de datos.
15. El codificador de audio de acuerdo con cualquiera de las reivindicaciones 8 a 14, donde el decodificador en el dominio del tiempo y el decodificador en el dominio de la frecuencia son codificadores sobre la base de LP configurados para señalizar los coeficientes de filtro LPC para cada porción de la señal de audio (112), donde el codificador en el dominio del tiempo (104) está configurado para aplicar un filtro de análisis LP de acuerdo con los coeficientes de filtro LPC sobre las porciones de la señal de audio (112) que tienen uno del primér subgrupo de uno o más de los modos de codificación de trama asociados, de manera de obtener una señal de excitación (150), y aproximar la señal de excitación mediante el uso de índices de libro de códigos e insertarla en correspondientes tramas, donde el codificador en el dominio de la frecuencia (106) está configurado para transformar las porciones de la señal de audio que tienen uno del segundo subgrupo de uno o más de los modos de codificación de trarna asociados, de manera de obtener un espectro, y la conformación del espectro de acuerdo con los coeficientes de filtro LPC para las porciones que tienen uno del segundo subgrupo asociado, a fin de obtener un espectro de excitación, cuantificar el espectro de excitación en niveles de coeficientes de transformada en las tramas que tienen uno del segundo subgrupo asociado, e insertar el espectro de excitación cuantificado en las correspondientes tramas.
16. Un método de decodificación de audio que utiliza un decodificador en el dominio del tiempo (12) y un decodificador en el dominio de la frecuencia (14), donde el método comprende: la asociación de cada una de las tramas consecutivas (18a-c) de una corriente de datos (20), cada una de las cuales representa una correspondiente porción de porciones consecutivas (24a-24c) de una señal de audio, con un modo de un grupo dependiente del modo, de una pluralidad (22) de modos de codificación de trama; la decodificación de tramas (18a-c) que tienen uno de un primer subgrupo (30) de uno o más de la pluralidad (22) de modos de codificación de trama asociados, por el decodificador en el dominio del tiempo (12); la decodificación de tramas (18a-c) que tienen uno de un segundo subgrupo (32) de uno o más de la pluralidad (22) de modos de codificación de trama asociados, por el decodificador en el dominio de la frecuencia (14), donde el primer y el segundo subgrupos están separados entre sí; donde la asociación depende de un elemento de sintaxis de modo de trama (38) asociado con las tramas (18a-c) en la corriente de datos (20); y donde la asociación se realiza en un modo activo de una pluralidad de modos de operación, mediante la selección del modo de operación activo de la pluralidad de modos de operación de acuerdo con la corriente de datos y/o una señal de control externa, de manera que la dependencia del comportamiento de la asociación cambia de acuerdo con el modo de operación activo.
17. Un método de codificación de audio usando un codificador en el dominio del tiempo (104) y un codificador en el dominio de la frecuencia (106), donde el método comprende: la asociación de cada una de porciones consecutivas (116a-c) de una señal de audio (112) con un modo de un grupo dependiente del modo (40, 42) de una pluralidad (22) de modos de codificación de trama; la codificación de porciones que tienen uno de un primer subgrupo (30) de uno o más de la pluralidad (22) de modos de codificación de trama asociados, en una correspondiente trama (118a-c) de una corriente de datos (114), por el codificador en el dominio del tiempo (104); la codificación de porciones que tienen uno de un segundo subgrupo (32) de uno o más de la pluralidad de modos de codificación asociados, en una correspondiente trama de la corriente de datos, por el codificador en el dominio de la frecuencia (106); donde la asociación se realiza en un modo activo de una pluralidad de modos de operación, de manera que, si el modo de operación activo es un primer modo de operación, el grupo dependiente del modo (40) de la pluralidad de modos de codificación de trama está separado en el primer subgrupo (30) y se superpone con el segundo subgrupo (32), y si el modo de operación activo es un segundo modo de operación, el grupo dependiente del modo de la pluralidad de modos de codificación se superpone con el primer y el segundo subgrupos (30, 32).
18. Un programa para computadora que tiene un código de programa para realizar, cuando se ejecuta en una computadora, un método de acuerdo con la reivindicación 16 o 17.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201161442632P | 2011-02-14 | 2011-02-14 | |
| PCT/EP2012/052461 WO2012110480A1 (en) | 2011-02-14 | 2012-02-14 | Audio codec supporting time-domain and frequency-domain coding modes |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| MX2013009302A true MX2013009302A (es) | 2013-09-13 |
Family
ID=71943598
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| MX2013009302A MX2013009302A (es) | 2011-02-14 | 2012-02-14 | Codec de audio que soporta modos de codificacion en el dominio del tiempo y en el dominio de la frecuencia. |
Country Status (18)
| Country | Link |
|---|---|
| US (1) | US9037457B2 (es) |
| EP (1) | EP2676269B1 (es) |
| JP (1) | JP5851525B2 (es) |
| KR (2) | KR101648133B1 (es) |
| CN (1) | CN103548078B (es) |
| AR (1) | AR085223A1 (es) |
| AU (2) | AU2012217160B2 (es) |
| BR (1) | BR112013020589B1 (es) |
| CA (1) | CA2827296C (es) |
| ES (1) | ES2562189T3 (es) |
| MX (1) | MX2013009302A (es) |
| MY (2) | MY159444A (es) |
| PL (1) | PL2676269T3 (es) |
| RU (1) | RU2547241C1 (es) |
| SG (1) | SG192715A1 (es) |
| TW (2) | TWI488176B (es) |
| WO (1) | WO2012110480A1 (es) |
| ZA (1) | ZA201306872B (es) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2676264B1 (en) | 2011-02-14 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder estimating background noise during active phases |
| US9589570B2 (en) * | 2012-09-18 | 2017-03-07 | Huawei Technologies Co., Ltd. | Audio classification based on perceptual quality for low or medium bit rates |
| EP2830051A3 (en) | 2013-07-22 | 2015-03-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals |
| PL3483881T3 (pl) | 2013-11-13 | 2025-03-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Enkoder do enkodowania sygnału audio, system przesyłania audio i sposób określania wartości korekcji |
| EP2980790A1 (en) | 2014-07-28 | 2016-02-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for comfort noise generation mode selection |
| US10699721B2 (en) * | 2017-04-25 | 2020-06-30 | Dts, Inc. | Encoding and decoding of digital audio signals using difference data |
| US10699723B2 (en) * | 2017-04-25 | 2020-06-30 | Dts, Inc. | Encoding and decoding of digital audio signals using variable alphabet size |
| KR102632136B1 (ko) | 2017-04-28 | 2024-01-31 | 디티에스, 인코포레이티드 | 오디오 코더 윈도우 사이즈 및 시간-주파수 변환 |
| JP6962445B2 (ja) * | 2018-03-02 | 2021-11-05 | 日本電信電話株式会社 | 符号化装置、符号化方法、プログラム、および記録媒体 |
Family Cites Families (127)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1992022891A1 (en) | 1991-06-11 | 1992-12-23 | Qualcomm Incorporated | Variable rate vocoder |
| US5408580A (en) * | 1992-09-21 | 1995-04-18 | Aware, Inc. | Audio compression system employing multi-rate signal analysis |
| BE1007617A3 (nl) * | 1993-10-11 | 1995-08-22 | Philips Electronics Nv | Transmissiesysteem met gebruik van verschillende codeerprincipes. |
| US5784532A (en) | 1994-02-16 | 1998-07-21 | Qualcomm Incorporated | Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system |
| CN1090409C (zh) * | 1994-10-06 | 2002-09-04 | 皇家菲利浦电子有限公司 | 采用不同编码原理的传送系统 |
| EP0720316B1 (en) | 1994-12-30 | 1999-12-08 | Daewoo Electronics Co., Ltd | Adaptive digital audio encoding apparatus and a bit allocation method thereof |
| SE506379C3 (sv) | 1995-03-22 | 1998-01-19 | Ericsson Telefon Ab L M | Lpc-talkodare med kombinerad excitation |
| US5754733A (en) | 1995-08-01 | 1998-05-19 | Qualcomm Incorporated | Method and apparatus for generating and encoding line spectral square roots |
| US5848391A (en) * | 1996-07-11 | 1998-12-08 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Method subband of coding and decoding audio signals using variable length windows |
| JP3259759B2 (ja) | 1996-07-22 | 2002-02-25 | 日本電気株式会社 | 音声信号伝送方法及び音声符号復号化システム |
| JPH10124092A (ja) | 1996-10-23 | 1998-05-15 | Sony Corp | 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置 |
| US5960389A (en) | 1996-11-15 | 1999-09-28 | Nokia Mobile Phones Limited | Methods for generating comfort noise during discontinuous transmission |
| JPH10214100A (ja) | 1997-01-31 | 1998-08-11 | Sony Corp | 音声合成方法 |
| US6134518A (en) | 1997-03-04 | 2000-10-17 | International Business Machines Corporation | Digital audio signal coding using a CELP coder and a transform coder |
| JP3223966B2 (ja) | 1997-07-25 | 2001-10-29 | 日本電気株式会社 | 音声符号化/復号化装置 |
| US6070137A (en) * | 1998-01-07 | 2000-05-30 | Ericsson Inc. | Integrated frequency-domain voice coding using an adaptive spectral enhancement filter |
| ATE302991T1 (de) * | 1998-01-22 | 2005-09-15 | Deutsche Telekom Ag | Verfahren zur signalgesteuerten schaltung zwischen verschiedenen audiokodierungssystemen |
| GB9811019D0 (en) | 1998-05-21 | 1998-07-22 | Univ Surrey | Speech coders |
| US6317117B1 (en) | 1998-09-23 | 2001-11-13 | Eugene Goff | User interface for the control of an audio spectrum filter processor |
| US7272556B1 (en) | 1998-09-23 | 2007-09-18 | Lucent Technologies Inc. | Scalable and embedded codec for speech and audio signals |
| US7124079B1 (en) | 1998-11-23 | 2006-10-17 | Telefonaktiebolaget Lm Ericsson (Publ) | Speech coding with comfort noise variability feature for increased fidelity |
| JP4024427B2 (ja) | 1999-05-24 | 2007-12-19 | 株式会社リコー | 線形予測係数抽出装置、線形予測係数抽出方法、およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 |
| DE10084675T1 (de) | 1999-06-07 | 2002-06-06 | Ericsson Inc | Verfahren und Vorrichtung zur Erzeugung von künstlichem Geräusch unter Verwendung von parametrischen Geräuschmodell-Masszahlen |
| JP4464484B2 (ja) | 1999-06-15 | 2010-05-19 | パナソニック株式会社 | 雑音信号符号化装置および音声信号符号化装置 |
| US6236960B1 (en) | 1999-08-06 | 2001-05-22 | Motorola, Inc. | Factorial packing method and apparatus for information coding |
| JP4907826B2 (ja) | 2000-02-29 | 2012-04-04 | クゥアルコム・インコーポレイテッド | 閉ループのマルチモードの混合領域の線形予測音声コーダ |
| US6757654B1 (en) | 2000-05-11 | 2004-06-29 | Telefonaktiebolaget Lm Ericsson | Forward error correction in speech coding |
| JP2002118517A (ja) | 2000-07-31 | 2002-04-19 | Sony Corp | 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法 |
| US6847929B2 (en) | 2000-10-12 | 2005-01-25 | Texas Instruments Incorporated | Algebraic codebook system and method |
| CA2327041A1 (en) | 2000-11-22 | 2002-05-22 | Voiceage Corporation | A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals |
| US6701772B2 (en) | 2000-12-22 | 2004-03-09 | Honeywell International Inc. | Chemical or biological attack detection and mitigation system |
| US7901873B2 (en) | 2001-04-23 | 2011-03-08 | Tcp Innovations Limited | Methods for the diagnosis and treatment of bone disorders |
| US20020184009A1 (en) | 2001-05-31 | 2002-12-05 | Heikkinen Ari P. | Method and apparatus for improved voicing determination in speech signals containing high levels of jitter |
| US20030120484A1 (en) | 2001-06-12 | 2003-06-26 | David Wong | Method and system for generating colored comfort noise in the absence of silence insertion description packets |
| US6879955B2 (en) | 2001-06-29 | 2005-04-12 | Microsoft Corporation | Signal modification based on continuous time warping for low bit rate CELP coding |
| US6941263B2 (en) | 2001-06-29 | 2005-09-06 | Microsoft Corporation | Frequency domain postfiltering for quality enhancement of coded speech |
| KR100438175B1 (ko) | 2001-10-23 | 2004-07-01 | 엘지전자 주식회사 | 코드북 검색방법 |
| CA2388439A1 (en) | 2002-05-31 | 2003-11-30 | Voiceage Corporation | A method and device for efficient frame erasure concealment in linear predictive based speech codecs |
| WO2004027368A1 (en) | 2002-09-19 | 2004-04-01 | Matsushita Electric Industrial Co., Ltd. | Audio decoding apparatus and method |
| US7343283B2 (en) | 2002-10-23 | 2008-03-11 | Motorola, Inc. | Method and apparatus for coding a noise-suppressed audio signal |
| US7363218B2 (en) | 2002-10-25 | 2008-04-22 | Dilithium Networks Pty. Ltd. | Method and apparatus for fast CELP parameter mapping |
| KR100465316B1 (ko) | 2002-11-18 | 2005-01-13 | 한국전자통신연구원 | 음성 부호화기 및 이를 이용한 음성 부호화 방법 |
| US7318035B2 (en) | 2003-05-08 | 2008-01-08 | Dolby Laboratories Licensing Corporation | Audio coding systems and methods using spectral component coupling and spectral component regeneration |
| US20050091044A1 (en) | 2003-10-23 | 2005-04-28 | Nokia Corporation | Method and system for pitch contour quantization in audio coding |
| CN1875402B (zh) | 2003-10-30 | 2012-03-21 | 皇家飞利浦电子股份有限公司 | 音频信号编码或解码 |
| CA2457988A1 (en) | 2004-02-18 | 2005-08-18 | Voiceage Corporation | Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization |
| FI118835B (fi) | 2004-02-23 | 2008-03-31 | Nokia Corp | Koodausmallin valinta |
| WO2005096274A1 (en) | 2004-04-01 | 2005-10-13 | Beijing Media Works Co., Ltd | An enhanced audio encoding/decoding device and method |
| GB0408856D0 (en) | 2004-04-21 | 2004-05-26 | Nokia Corp | Signal encoding |
| BRPI0418838A (pt) | 2004-05-17 | 2007-11-13 | Nokia Corp | método para suportar uma codificação de um sinal de áudio, módulo para suportar uma codificação de um sinal de áudio, dispositivo eletrÈnico, sistema de codificação de áudio, e, produto de programa de software |
| US7649988B2 (en) | 2004-06-15 | 2010-01-19 | Acoustic Technologies, Inc. | Comfort noise generator using modified Doblinger noise estimate |
| US8160274B2 (en) | 2006-02-07 | 2012-04-17 | Bongiovi Acoustics Llc. | System and method for digital signal processing |
| TWI253057B (en) * | 2004-12-27 | 2006-04-11 | Quanta Comp Inc | Search system and method thereof for searching code-vector of speech signal in speech encoder |
| US7519535B2 (en) | 2005-01-31 | 2009-04-14 | Qualcomm Incorporated | Frame erasure concealment in voice communications |
| JP2008529073A (ja) | 2005-01-31 | 2008-07-31 | ソノリト・アンパルトセルスカブ | 重み付けされたオーバーラップ加算方法 |
| US20070147518A1 (en) | 2005-02-18 | 2007-06-28 | Bruno Bessette | Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX |
| US8155965B2 (en) | 2005-03-11 | 2012-04-10 | Qualcomm Incorporated | Time warping frames inside the vocoder by modifying the residual |
| CA2602804C (en) | 2005-04-01 | 2013-12-24 | Qualcomm Incorporated | Systems, methods, and apparatus for highband burst suppression |
| EP1899958B1 (en) | 2005-05-26 | 2013-08-07 | LG Electronics Inc. | Method and apparatus for decoding an audio signal |
| US7707034B2 (en) | 2005-05-31 | 2010-04-27 | Microsoft Corporation | Audio codec post-filter |
| WO2006136901A2 (en) | 2005-06-18 | 2006-12-28 | Nokia Corporation | System and method for adaptive transmission of comfort noise parameters during discontinuous speech transmission |
| KR100851970B1 (ko) | 2005-07-15 | 2008-08-12 | 삼성전자주식회사 | 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치 |
| US7610197B2 (en) | 2005-08-31 | 2009-10-27 | Motorola, Inc. | Method and apparatus for comfort noise generation in speech communication systems |
| US7720677B2 (en) | 2005-11-03 | 2010-05-18 | Coding Technologies Ab | Time warped modified transform coding of audio signals |
| US7536299B2 (en) | 2005-12-19 | 2009-05-19 | Dolby Laboratories Licensing Corporation | Correlating and decorrelating transforms for multiple description coding systems |
| US8255207B2 (en) | 2005-12-28 | 2012-08-28 | Voiceage Corporation | Method and device for efficient frame erasure concealment in speech codecs |
| WO2007083931A1 (en) | 2006-01-18 | 2007-07-26 | Lg Electronics Inc. | Apparatus and method for encoding and decoding signal |
| CN101371296B (zh) * | 2006-01-18 | 2012-08-29 | Lg电子株式会社 | 用于编码和解码信号的设备和方法 |
| US8032369B2 (en) | 2006-01-20 | 2011-10-04 | Qualcomm Incorporated | Arbitrary average data rates for variable rate coders |
| FR2897733A1 (fr) | 2006-02-20 | 2007-08-24 | France Telecom | Procede de discrimination et d'attenuation fiabilisees des echos d'un signal numerique dans un decodeur et dispositif correspondant |
| US20070253577A1 (en) | 2006-05-01 | 2007-11-01 | Himax Technologies Limited | Equalizer bank with interference reduction |
| CN101460998A (zh) | 2006-05-30 | 2009-06-17 | 皇家飞利浦电子股份有限公司 | 音频信号的线性预测编码 |
| US7873511B2 (en) | 2006-06-30 | 2011-01-18 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic |
| JP4810335B2 (ja) | 2006-07-06 | 2011-11-09 | 株式会社東芝 | 広帯域オーディオ信号符号化装置および広帯域オーディオ信号復号装置 |
| US7933770B2 (en) | 2006-07-14 | 2011-04-26 | Siemens Audiologische Technik Gmbh | Method and device for coding audio data based on vector quantisation |
| WO2008013788A2 (en) | 2006-07-24 | 2008-01-31 | Sony Corporation | A hair motion compositor system and optimization techniques for use in a hair/fur pipeline |
| US7987089B2 (en) | 2006-07-31 | 2011-07-26 | Qualcomm Incorporated | Systems and methods for modifying a zero pad region of a windowed frame of an audio signal |
| DE102006049154B4 (de) | 2006-10-18 | 2009-07-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kodierung eines Informationssignals |
| US20080147518A1 (en) | 2006-10-18 | 2008-06-19 | Siemens Aktiengesellschaft | Method and apparatus for pharmacy inventory management and trend detection |
| PL2052548T3 (pl) * | 2006-12-12 | 2012-08-31 | Fraunhofer Ges Forschung | Koder, dekoder oraz sposoby kodowania i dekodowania segmentów danych reprezentujących strumień danych w dziedzinie czasu |
| FR2911228A1 (fr) | 2007-01-05 | 2008-07-11 | France Telecom | Codage par transformee, utilisant des fenetres de ponderation et a faible retard. |
| KR101379263B1 (ko) * | 2007-01-12 | 2014-03-28 | 삼성전자주식회사 | 대역폭 확장 복호화 방법 및 장치 |
| FR2911426A1 (fr) | 2007-01-15 | 2008-07-18 | France Telecom | Modification d'un signal de parole |
| JP4708446B2 (ja) | 2007-03-02 | 2011-06-22 | パナソニック株式会社 | 符号化装置、復号装置およびそれらの方法 |
| JP2008261904A (ja) | 2007-04-10 | 2008-10-30 | Matsushita Electric Ind Co Ltd | 符号化装置、復号化装置、符号化方法および復号化方法 |
| US8630863B2 (en) | 2007-04-24 | 2014-01-14 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding audio/speech signal |
| CN101388210B (zh) | 2007-09-15 | 2012-03-07 | 华为技术有限公司 | 编解码方法及编解码器 |
| KR101513028B1 (ko) | 2007-07-02 | 2015-04-17 | 엘지전자 주식회사 | 방송 수신기 및 방송신호 처리방법 |
| US8185381B2 (en) | 2007-07-19 | 2012-05-22 | Qualcomm Incorporated | Unified filter bank for performing signal conversions |
| CN101110214B (zh) | 2007-08-10 | 2011-08-17 | 北京理工大学 | 一种基于多描述格型矢量量化技术的语音编码方法 |
| EP2186088B1 (en) | 2007-08-27 | 2017-11-15 | Telefonaktiebolaget LM Ericsson (publ) | Low-complexity spectral analysis/synthesis using selectable time resolution |
| US8566106B2 (en) | 2007-09-11 | 2013-10-22 | Voiceage Corporation | Method and device for fast algebraic codebook search in speech and audio coding |
| CN101425292B (zh) * | 2007-11-02 | 2013-01-02 | 华为技术有限公司 | 一种音频信号的解码方法及装置 |
| DE102007055830A1 (de) | 2007-12-17 | 2009-06-18 | Zf Friedrichshafen Ag | Verfahren und Vorrichtung zum Betrieb eines Hybridantriebes eines Fahrzeuges |
| CN101483043A (zh) | 2008-01-07 | 2009-07-15 | 中兴通讯股份有限公司 | 基于分类和排列组合的码本索引编码方法 |
| CN101488344B (zh) | 2008-01-16 | 2011-09-21 | 华为技术有限公司 | 一种量化噪声泄漏控制方法及装置 |
| US8000487B2 (en) | 2008-03-06 | 2011-08-16 | Starkey Laboratories, Inc. | Frequency translation by high-frequency spectral envelope warping in hearing assistance devices |
| EP2107556A1 (en) | 2008-04-04 | 2009-10-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio transform coding using pitch correction |
| US8423852B2 (en) | 2008-04-15 | 2013-04-16 | Qualcomm Incorporated | Channel decoding-based error detection |
| US8768690B2 (en) | 2008-06-20 | 2014-07-01 | Qualcomm Incorporated | Coding scheme selection for low-bit-rate applications |
| CA2730315C (en) | 2008-07-11 | 2014-12-16 | Jeremie Lecomte | Audio encoder and decoder for encoding frames of sampled audio signals |
| CA2871252C (en) * | 2008-07-11 | 2015-11-03 | Nikolaus Rettelbach | Audio encoder, audio decoder, methods for encoding and decoding an audio signal, audio stream and computer program |
| MY154452A (en) | 2008-07-11 | 2015-06-15 | Fraunhofer Ges Forschung | An apparatus and a method for decoding an encoded audio signal |
| RU2536679C2 (ru) | 2008-07-11 | 2014-12-27 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен | Передатчик сигнала активации с деформацией по времени, кодер звукового сигнала, способ преобразования сигнала активации с деформацией по времени, способ кодирования звукового сигнала и компьютерные программы |
| CA2730355C (en) | 2008-07-11 | 2016-03-22 | Guillaume Fuchs | Apparatus and method for encoding/decoding an audio signal using an aliasing switch scheme |
| EP2144171B1 (en) | 2008-07-11 | 2018-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder and decoder for encoding and decoding frames of a sampled audio signal |
| CA2871498C (en) | 2008-07-11 | 2017-10-17 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder and decoder for encoding and decoding audio samples |
| US8352279B2 (en) | 2008-09-06 | 2013-01-08 | Huawei Technologies Co., Ltd. | Efficient temporal envelope coding approach by prediction between low band signal and high band signal |
| WO2010031049A1 (en) | 2008-09-15 | 2010-03-18 | GH Innovation, Inc. | Improving celp post-processing for music signals |
| US8798776B2 (en) * | 2008-09-30 | 2014-08-05 | Dolby International Ab | Transcoding of audio metadata |
| WO2010040522A2 (en) * | 2008-10-08 | 2010-04-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | Multi-resolution switched audio encoding/decoding scheme |
| KR101315617B1 (ko) * | 2008-11-26 | 2013-10-08 | 광운대학교 산학협력단 | 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기 |
| CN101770775B (zh) | 2008-12-31 | 2011-06-22 | 华为技术有限公司 | 信号处理方法及装置 |
| US8457975B2 (en) | 2009-01-28 | 2013-06-04 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program |
| RU2542668C2 (ru) | 2009-01-28 | 2015-02-20 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. | Звуковое кодирующее устройство, звуковой декодер, кодированная звуковая информация, способы кодирования и декодирования звукового сигнала и компьютерная программа |
| EP2214165A3 (en) | 2009-01-30 | 2010-09-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and computer program for manipulating an audio signal comprising a transient event |
| EP2645367B1 (en) * | 2009-02-16 | 2019-11-20 | Electronics and Telecommunications Research Institute | Encoding/decoding method for audio signals using adaptive sinusoidal coding and apparatus thereof |
| ES2374486T3 (es) | 2009-03-26 | 2012-02-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Dispositivo y método para manipular una señal de audio. |
| WO2010148516A1 (en) | 2009-06-23 | 2010-12-29 | Voiceage Corporation | Forward time-domain aliasing cancellation with application in weighted or original signal domain |
| CN101958119B (zh) * | 2009-07-16 | 2012-02-29 | 中兴通讯股份有限公司 | 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法 |
| RU2596594C2 (ru) | 2009-10-20 | 2016-09-10 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. | Кодер аудиосигнала, декодер аудиосигнала, способ кодированного представления аудиоконтента, способ декодированного представления аудиоконтента и компьютерная программа для приложений с малой задержкой |
| BR112012009490B1 (pt) | 2009-10-20 | 2020-12-01 | Fraunhofer-Gesellschaft zur Föerderung der Angewandten Forschung E.V. | ddecodificador de áudio multimodo e método de decodificação de áudio multimodo para fornecer uma representação decodificada do conteúdo de áudio com base em um fluxo de bits codificados e codificador de áudio multimodo para codificação de um conteúdo de áudio em um fluxo de bits codificados |
| CN102081927B (zh) | 2009-11-27 | 2012-07-18 | 中兴通讯股份有限公司 | 一种可分层音频编码、解码方法及系统 |
| US8423355B2 (en) | 2010-03-05 | 2013-04-16 | Motorola Mobility Llc | Encoder for audio signal including generic audio and speech frames |
| US8428936B2 (en) | 2010-03-05 | 2013-04-23 | Motorola Mobility Llc | Decoder for audio signal including generic audio and speech frames |
| WO2011147950A1 (en) | 2010-05-28 | 2011-12-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low-delay unified speech and audio codec |
| EP2676264B1 (en) | 2011-02-14 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder estimating background noise during active phases |
-
2012
- 2012-02-10 TW TW101104350A patent/TWI488176B/zh active
- 2012-02-10 MY MYPI2013002980A patent/MY159444A/en unknown
- 2012-02-14 JP JP2013553902A patent/JP5851525B2/ja active Active
- 2012-02-14 ES ES12706001.0T patent/ES2562189T3/es active Active
- 2012-02-14 KR KR1020137024070A patent/KR101648133B1/ko active Active
- 2012-02-14 RU RU2013141935/08A patent/RU2547241C1/ru active
- 2012-02-14 BR BR112013020589-0A patent/BR112013020589B1/pt active IP Right Grant
- 2012-02-14 SG SG2013060926A patent/SG192715A1/en unknown
- 2012-02-14 TW TW101104676A patent/TWI484480B/zh active
- 2012-02-14 KR KR1020167012861A patent/KR101751354B1/ko active Active
- 2012-02-14 MX MX2013009302A patent/MX2013009302A/es active IP Right Grant
- 2012-02-14 EP EP12706001.0A patent/EP2676269B1/en active Active
- 2012-02-14 CN CN201280018224.4A patent/CN103548078B/zh active Active
- 2012-02-14 AU AU2012217160A patent/AU2012217160B2/en active Active
- 2012-02-14 CA CA2827296A patent/CA2827296C/en active Active
- 2012-02-14 WO PCT/EP2012/052461 patent/WO2012110480A1/en not_active Ceased
- 2012-02-14 MY MYPI2013701415A patent/MY160264A/en unknown
- 2012-02-14 AR ARP120100478A patent/AR085223A1/es active IP Right Grant
- 2012-02-14 PL PL12706001T patent/PL2676269T3/pl unknown
-
2013
- 2013-08-13 US US13/966,048 patent/US9037457B2/en active Active
- 2013-09-12 ZA ZA2013/06872A patent/ZA201306872B/en unknown
-
2016
- 2016-01-21 AU AU2016200351A patent/AU2016200351B2/en active Active
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11881225B2 (en) | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal | |
| AU2016200351B2 (en) | Audio codec supporting time-domain and frequency-domain coding modes | |
| JP6173288B2 (ja) | マルチモードオーディオコーデックおよびそれに適応されるcelp符号化 | |
| US7876966B2 (en) | Switching between coding schemes | |
| CA2827272A1 (en) | Apparatus and method for encoding and decoding an audio signal using an aligned look-ahead portion | |
| HK1192793B (en) | Audio codec supporting time-domain and frequency-domain coding modes | |
| HK40066712B (en) | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal | |
| HK40066712A (en) | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal | |
| HK40049390A (en) | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal | |
| HK40051266A (en) | Audio decoder for decoding an encoded audio signal | |
| HK40049255B (zh) | 用於编码的音频编码器及用於解码的音频解码器 | |
| HK40049390B (en) | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal | |
| HK40049313B (zh) | 用於编码的音频编码器及用於解码的音频解码器 | |
| HK1242836B (en) | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FG | Grant or registration |