MX2013001774A - Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato codificacion de imagen, programa, y circuito integrado. - Google Patents
Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato codificacion de imagen, programa, y circuito integrado.Info
- Publication number
- MX2013001774A MX2013001774A MX2013001774A MX2013001774A MX2013001774A MX 2013001774 A MX2013001774 A MX 2013001774A MX 2013001774 A MX2013001774 A MX 2013001774A MX 2013001774 A MX2013001774 A MX 2013001774A MX 2013001774 A MX2013001774 A MX 2013001774A
- Authority
- MX
- Mexico
- Prior art keywords
- unit
- image
- processing unit
- hierarchical layer
- coding
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
- H04N19/122—Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/18—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Se describe un método de decodificación de imagen el cual mejora tanto la calidad de imagen como la eficiencia de codificación el cual es un método de decodificación de imagen para decodificar una corriente codificada la cual incluye una pluralidad de unidades de procesamiento y un encabezador para las unidades de procesamiento, la corriente codificada es generada por codificación de una película, las unidades de procesamiento incluyen por lo menos una unidad de procesamiento estratificada para ser dividida en una pluralidad de unidades de procesamiento más pequeñas, el método de decodificación de imagen incluye especificar una capa jerárquica que tiene una unidad de procesamiento en la cual se almacena un parámetro necesario para decodificación, mediante análisis de la información de profundidad de jerarquía almacenada en el encabezador (S101) y decodificar la unidad de procesamiento utilizando el parámetro almacenado en la unidad de procesamiento localizada en la capa jerárquica especificada (5102).
Description
METODO DE DECODIFICACION DE IMAGEN, METODO DE CODIFICACION DE IMAGEN, APARATO DE DECODIFICACION DE IMAGEN, APARATO DE CODIFICACION DE IMAGEN, PROGRAMA, Y CIRCUITO INTEGRADO
CAMPO DE LA INVENCIÓN
La presente invención se relaciona con un método de codificación de imagen para codificar imágenes o películas incluidas en datos multimedia y un método de decodificación de imagen para decodificar imágenes codificadas o películas.
ANTECEDENTES DE LA INVENCIÓN
En los estándares de compresión de video como MPEG-1, MPEG-2, MPEG- o MPEG-4 AVC, una imagen comprimida habitualmente se divide en unidades de rectángulo denominados "macroblogues" . Un macrobloque habitualmente se define como un bloque bidimensional de muestras de imagen. Las muestras de imagen tienen una anchura de 16 pixeles y una altura de 16 pixeles para muestras de luminancia. La relación de compresión del macrobloque se controla por un parámetro de escala de cuantificación para cada macrobloque. El parámetro de escala de cuantificación determina el nivel de cuantificación que se va a aplicar a todos los coeficientes de frecuencia. El parámetro de escala de cuantificación habitualmente se codifica como un valor de diferencia a partir del parámetro de escala de cuantificación del macrobloque previo en el orden de coordenadas, y se almacena
Ref.: 238806 en un encabezador de macrobloque comprimido.
En los estándares de nuevo video bajo desarrollo, por ejemplo el estándar de codificación de video de alta eficiencia (HEVC, por sus siglas en inglés) por los cuerpos de estandarización de MPEG, se sugiere que dividir la imagen en unidades grandes puede mejorar la eficiencia de codificación del video comprimido (por ejemplo, véase la literatura 1 que no es de patente) . En otras palabras, una imagen se puede dividir en unidades codificantes (las CU, por sus siglas en inglés) en donde cada unidad codificante tiene un tamaño que puede ser mucho mayor que un macrobloque . Por ejemplo, el tamaño de la unidad codificante puede ser de 128 pixeles por 128 pixeles para muestras de luminancia, el cual es aproximadamente 64 veces más grande que un macrobloque .
Una unidad de codificación grande puede ser subdividida en unidades más pequeñas (unidades subcodificantes) para obtener una mejor eficiencia de codificación. Cada unidad codificante o unidad subcodificante tiene tres componentes principales. Los componentes principales son el encabezador de unidad codificante, una unidad de predicción (PU, por sus siglas en inglés) y una unidad de transformada (TU, por sus siglas en inglés) .
La figura 1 es un diagrama que muestra la estructura de la imagen comprimida que tiene unidades codificantes.
Como se muestra en la figura 1, una imagen D100 incluye un encabezador (a continuación denominado como un encabezador de imagen) y un cuerpo. El encabezador de imagen incluye parámetros relacionados con la imagen (parámetros de imagen) mientras que el cuerpo incluye muestras comprimidas de una imagen. Además, el cuerpo incluye unidades codificantes tales como unidades codificantes D102 y D104, y algunas de las unidades codificantes se dividen en subunidades codificantes. Por ejemplo, la unidad D102 codificante se divide en subunidades D106 codificantes, y una de las subunidades 106 codificantes se divide adicionalmente en subunidades D108 codificantes más pequeñas. La unidad D104 codificante o la subunidad D108 codificante tiene tres componentes principales. De manera más específica, la unidad D104 codificante incluye un encabezador D116 de unidad codificante, una unidad D118 de predicción y una unidad D120 de transformada como los tres componentes principales. La subunidad D108 codificante tiene un encabezador D110 de subunidad codificante, una unidad D112 de predicción y una unidad D114 de transformada como los tres componentes principales. Como se muestra en la figura 1, una unidad D120 de transformada se divide en subunidades D122 de transformada pequeñas y una de las subunidades D122 de transformada se divide en subunidades D124 de transformada más pequeña. Las unidades de transformada más pequeñas (subunidades de transformada) D114 y D124 incluyen los coeficientes cuantificados de un bloque, los cuales requieren un parámetro de escala de cuantificación para el proceso de cuantificación inversa de los coeficientes.
LISTA DE CITAS
Literatura que no es de patente
[NPL 1]
"Test Model under Consideration" Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, 2nd eeting: Geneva, CH, 21-28 Julio, 2010, Documento: JCTVC-B205
SUMARIO PE LA INVENCION PROBLEMA TECNICO
No obstante, en el método de decodificación de imagen y el método de codificación de imagen de acuerdo con la literatura 1 que no es de patente descrita en lo anterior existe un problema de que la calidad de imagen y la eficiencia de codificación no se pueden mejorar simultáneamente. En otras palabras, un parámetro tal como un parámetro de escala de cuantificación necesario para codificación y un proceso de codificación se almacenan en un encabezador de imagen de manera que el parámetro es aplicado a la totalidad del cuerpo de la imagen D100. Como un resultado, es imposible que se ajuste la calidad de imagen para cada una de las unidades de procesamiento pequeñas tales como la unidad de subcodificación, la unidad de predicción, la subunidad de predicción, la unidad de transformada o la subunidad de transformada. Además, la cantidad de codificación es grande cuando se almacena un parámetro para cada una de las unidades de procesamiento de manera que el parámetro se aplica a cada una de las unidades de procesamiento más pequeñas.
Por lo tanto, la presente invención se concibe en vista del problema y un objetivo de la presente invención es proporcionar un método de decodificación de imagen y un método de codificación de imagen para mejorar simultáneamente la imagen y la eficiencia de codificación.
SOLUCION AL PROBLEMA
Con el fin de obtener el objetivo descrito en lo anterior, un método de decodificación de imagen de acuerdo con un aspecto de la presente invención es un método de decodificación de imagen para decodificar una corriente codificada la cual incluye una pluralidad de unidades de procesamiento y un encabezador para las unidades de procesamiento, la corriente codificada es generada por codificación de una película, las unidades de procesamiento incluyen por lo menos una unidad de procesamiento estratificada para ser dividida en una pluralidad de unidades de procesamiento más pequeñas, el método de decodificación de imagen incluye: especificar una capa jerárquica que tiene una unidad de procesamiento en la cual se almacena un parámetro necesario para decodificación, mediante análisis de la jerarquía de información de profundidad almacenada en el encabezador; y decodificación de la unidad de procesamiento utilizando el parámetro almacenado en la unidad de procesamiento localizada en la capa jerárquica especificada.
Con esto, la unidad de procesamiento es estratificada jerárquicamente. Cuando se almacena un parámetro en cada unidad de procesamiento pequeña localizada en una capa jerárquica menor, las unidades de procesamiento pequeñas pueden ser decodificadas mediante aplicación de un parámetro diferente a cada una de las unidades de procesamiento pequeñas. Como un resultado, se puede mejorar la calidad de imagen. Además, puesto que la capa jerárquica que tiene una unidad de procesamiento en la cual un parámetro necesario para decoficación se almacena es especificado por análisis de la jerarquía de información de profundidad, es posible para la capa jerárquica que se establezca como una capa jerárquica arbitraria en vez de estar limitada a la capa jerárquica más baja. Por lo tanto, se puede reducir la cantidad de codificación para todos los parámetros incluidos en una corriente codificada en comparación con el caso en donde un parámetro es almacenado para cada una de las unidades de procesamiento más pequeñas localizadas en la capa jerárquica más baja, y se puede mejorar la eficiencia de codificación. Con esto se puede mejorar, simultáneamente, tanto la calidad de imagen como la eficiencia de codificación. Además, puesto que mediante análisis de la jerarquía de información de profundidad, se específica una capa jerárquica que tiene una unidad de procesamiento en la cual se almacena un parámetro, es posible reducir la carga de un proceso de búsqueda de la unidad de procesamiento en la cual se almacena el parámetro.
Además, la corriente codificada se . genera por codificación la cual incluye transformada ortogonal y cuantificación, la unidad de procesamiento es estratificada para que sea más pequeña en una dirección desde un nivel superior a un nivel inferior, existe una unidad de codificación como una unidad de procesamiento más grande en un nivel jerárquico más alto y existe una unidad de transformada como una unidad de procesamiento más pequeño en comparación con la unidad de codificación en una capa jerárquica menor que es más profunda que la capa jerárquica más alta, el parámetro es un parámetro de cuantificación aplicado a la unidad de transformada, la información de profundidad de jerarquía indica una capa jerárquica inferior que es más profunda que la capa jerárquica más alta, y (i) una capa jerárquica indicada por la información de profundidad de jerarquía, o (ii) una capa jerárquica la cual es mayor que la capa jerárquica y es diferente de la capa jerárquica más alta se especifica, cuando se especifica una capa jerárquica que tiene una unidad de procesamiento en la cual se almacena el parámetro de cuantificación.
Con esto, es posible para calidad de imagen en cuantificación por un parámetro de cuantificación y eficiencia de codificación en el parámetro de cuantificación los cuales pueden ser mejorados simultáneamente.
Además, el encabezador puede ser un encabezador de imagen para una imagen que incluye las unidades de procesamiento y la información de profundidad de jerarquía se puede almacenar en el encabezador de imagen.
Con esto, una jerarquía que tiene una unidad de procesamiento en la cual se almacena un parámetro necesario para decodificación se puede identificar como una capa jerárquica común para la totalidad de la imagen.
Además, cuando se decodifica la unidad de procesamiento, se puede utilizar el parámetro de cuantificación localizado, dentro de la unidad de procesamiento, después de un coeficiente de transformada generado por la transformada ortogonal y la cuantificación.
Con esto, puesto que el parámetro de cuantificación se almacena únicamente cuando existen coeficientes de transformada, el parámetro de cuantificación no se almacena cuando no hay coeficientes de transformada y se puede mejorar la eficiencia de codificación.
Además, con el fin de obtener el objetivo mencionado antes, un método de codificación de imagen de acuerdo con un aspecto de la presente invención es un método de codificación de imagen para generar, mediante codificación de una película, una corriente codificada la cual incluye una pluralidad de unidades de procesamiento y un encabezador para las unidades de procesamiento, las unidades de procesamiento incluyen por lo menos una unidad de procesamiento estratificada para ser dividida en una pluralidad de unidades de procesamiento más pequeñas, el método de codificación de imagen incluye: codificación de la película; escritura en el encabezador, información de profundidad de jerarquía para especificar una capa jerárquica que tiene una unidad de procesamiento en la cual se almacena un parámetro necesario para decodificación; y escribir el parámetro en una unidad de procesamiento localizada en la capa jerárquica especificada por la información de profundidad de jerarquía.
Con esto, la unidad de procesamiento es estratificada jerárquicamente, se puede escribir un parámetro el cual es diferente de cada una de las unidades de procesamiento pequeñas que se localizan en las capas jerárquicas bajas. Como un resultado, el aparato de decodificación de imagen puede decodificar las unidades de procesamiento al aplicar un parámetro diferente a cada una de las unidades de procesamiento pequeñas y por lo tanto se puede mejorar la calidad de imagen. Además, al escribir, en el encabezado la información de profundidad de jerarquía para especificar la capa jerárquica que tiene una unidad de procesamiento en la cual se almacena un parámetro necesario para decodificación, la capa jerárquica puede notificar al aparato de decodificación de imagen. Por lo tanto, se puede establecer una capa jerárquica arbitraria sin limitar la capa jerárquica a la capa jerárquica más baja. Por lo tanto, la cantidad de codificación para todos los parámetros incluidos en una corriente codificada se pueden reducir en comparación con el caso en donde se almacena un parámetro para cada una de la unidad de procesamiento más pequeña localizada en la capa jerárquica más baja, y se puede mejorar la eficiencia de codificación. Con estos, simultáneamente se pueden mejorar la calidad de imagen y la eficiencia de codificación.
Además, se realiza transformada ortogonal y cuantificación sobre la película cuando se codifica la película, la unidad de procesamiento es estratificada para que sea más pequeña en una dirección desde un nivel mayor a un nivel menor, existe una unidad codificante como la unidad de procesamiento más grande en la capa jerárquica más alta, y existe una unidad de transformada como una unidad de procesamiento más pequeña que la unidad de codificación en la capa jerárquica más baja que es más profunda que la capa jerárquica más alta, el parámetro es un parámetro de cuantificación aplicado a la unidad de transformada, la información de profundidad de jerarquía indica una capa jerárquica que es menor que la capa jerárquica más grande y el parámetro se escribe en una unidad de procesamiento en (i) una capa jerárquica indicada por la información de profundidad de jerarquía, o (ii) una capa jerárquica la cual es mayor que la capa jerárquica y es diferente de la capa jerárquica más alta, cuando se escribe el parámetro de cuantificación .
Con esto, es posible que la calidad de imagen en la cuantificación por un parámetro de cuantificación y la eficiencia de codificación en el parámetro de cuantificación mejoren simultáneamente.
Además, el encabezador es un encabezador de imagen para una imagen que incluye las unidades de procesamiento y la información de profundidad de jerarquía se puede escribir en el encabezador de imagen cuando se escribe la información de profundidad de jerarquía.
Con esto, una capa jerárquica que tiene una unidad de procesamiento en la cual un parámetro necesario para decodificación se almacena puede ser establecido comúnmente para toda la imagen.
Además, cuando se escribe el parámetro de cuantificación, el parámetro de cuantificación se puede escribir dentro de la unidad de procesamiento, después del coeficiente de transformada generado por la transformada ortogonal y la cuantificación .
Con esto, es posible que un parámetro de cuantificación sea escrito únicamente cuando existen coeficientes de transformada y se puede mejorar la eficiencia de codificación.
Debe hacerse notar que la presente invención se puede implementar como el método de decodificación de imagen y método de codificación de imagen descrito en lo anterior. También se puede implementar como un aparato para codificación o de.codificación de la una imagen, un circuito integrado, un programa para decodificación o codificación de una imagen de acuerdo con los métodos y un medio de grabación que tiene el programa almacenado en el mismo.
EFECTOS VENTAJOSOS DE LA INVENCION
El método de decodificación de imagen y el método de codificación de imagen de acuerdo con la presente invención puede mejorar la calidad de imagen y la eficiencia de codificación simultáneamente.
BREVE DESCRIPCION DE LAS FIGURAS
La figura 1 es un diagrama que muestra la configuración de una corriente codificada convencional.
La figura 2 es un diagrama de bloques que muestra la configuración de un aparato de codificación de imagen de acuerdo con la modalidad 1 de la presente invención.
La figura 3 es un diagrama de bloques que muestra la configuración de un aparato de decodificación de imagen de acuerdo con la modalidad 1 de la presente invención.
La figura 4 es un diagrama de ilustración para describir una estructura de bloque multij erárquica.
La figura 5 es un diagrama que muestra la configuración de una corriente codificada a ser generada por el programa TMuC.
La figura 6A es un diagrama que muestra la configuración de una corriente codificada de acuerdo con la modalidad 1 de la presente invención.
La figura 6B es un diagrama que muestra la configuración de una corriente codificada de acuerdo con la modalidad 1 de la presente invención.
La figura 6C es un diagrama que muestra la configuración de una corriente codificada de acuerdo con la modalidad 1 de la presente invención.
La figura 7 es un diagrama que muestra la configuración de otra corriente codificada de acuerdo con la modalidad 1 de la presente invención.
La figura 8A es un diagrama que muestra la configuración de otra corriente adicional codificada de acuerdo con la modalidad 1 de la presente invención.
La figura 8B es un diagrama que muestra la configuración de otra corriente codificada adicional de acuerdo con la modalidad 1 de la presente invención.
La figura 9A es un diagrama que muestra la posición de almacenamiento de Max_quantization_unit_hierachy_depth (profundidad de jerarquía de unidad de cuantificación máxima) de acuerdo con la modalidad 1 de la presente invención.
La figura 9B es un diagrama que muestra la posición de almacenamiento de Max_quantization_unit__hierac y_depth (profundidad de jerarquía de unidad de cuantificación máxima) de acuerdo con la modalidad 1 de la presente invención.
La figura 10A es un diagrama que muestra un parámetro de escala de cuantificación delta de acuerdo con la modalidad 1 de la presente invención.
La figura 10B es un diagrama que muestra el parámetro de desviación de zona inactiva de cuantificación de acuerdo con la modalidad 1 de la presente invención.
La figura 10C es un diagrama que muestra un índice de acuerdo con la modalidad 1 de la presente invención.
La figura 10D es un diagrama que muestra un parámetro de desviación de cuantificación de acuerdo con la modalidad 1 de la presente invención.
La figura 11 es un diagrama de flujo que muestra la decodificación de delta QP por el aparato de decodificación de imagen de acuerdo con la modalidad 1 de la presente invención.
La figura 12 es un diagrama de flujo que muestra el cálculo de QP por el aparato de decodificación de imagen de acuerdo con la modalidad 1 de la presente invención.
La figura 13 es un diagrama de flujo que muestra decodificación por el aparato de decodificación de imagen de acuerdo con la modificación 1 de la modalidad 1 de la presente invención.
La figura 14 es un diagrama de flujo que muestra la codificación por el aparato de codificación de imagen de acuerdo con la modificación 1 de la modalidad 1 de la presente invención.
La figura 15A es un diagrama de flujo que muestra la decodificación por el aparato de decodificación de imagen de acuerdo con la modificación 2 de la modalidad 1 de la presente invención.
La figura 15B es un diagrama de flujo que muestra la decodificación por el aparato de decodificación de imagen de acuerdo con la modificación 2 de la modalidad 1 de la presente invención.
La figura 16A es un diagrama de flujo que muestra la codificación por el aparato de codificación de imagen de acuerdo con la modificación 2 de la modalidad 1 de la presente invención.
La figura 16B es un diagrama de flujo que muestra la codificación por el aparato de codificación de imagen de acuerdo con la modificación 2 de la modalidad 1 de la presente invención.
La figura 17A es un diagrama de flujo que muestra un método de decodificación de imagen de acuerdo con la presente invención.
La figura 17B es un diagrama de flujo que muestra un método de codificación de imagen de acuerdo con la presente invención.
La figura 18A es un diagrama que muestra una sintaxis de encabezador de secuencia de acuerdo con la modalidad 1 de la presente invención.
La figura 18B es un diagrama que muestra una sintaxis de encabezador de imagen de acuerdo con la modalidad 1 de la presente invención.
La figura 18C es un diagrama que muestra la sintaxis de un encabezador de rebanada de acuerdo con la modalidad 1 de la presente invención.
La figura 19A es un diagrama que muestra una sintaxis de una unidad codificante (CU) de acuerdo con la modalidad 1 de la presente invención.
La figura 19B es un diagrama que muestra la sintaxis de una unidad de predicción (PU) de acuerdo con la modalidad 1 de la presente invención.
La figura 19C es un diagrama que muestra la sintaxis de una unidad de transformada (TU) de acuerdo con la modalidad 1 de la presente invención.
La figura 20 es una configuración general de un sistema que suministra contenido para implementación de servicios de distribución de contenido.
La figura 21 muestra una configuración general de un sistema de difusión digital.
La figura 22 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una televisión.
La figura 23 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe información desde y sobre un medio de grabación que es un disco óptico.
La figura 24 muestra un ejemplo de una configuración de un medio de grabación que es un disco óptico.
La figura 25A muestra un ejemplo de un teléfono celular .
La figura 25B es un diagrama de bloques que muestra un ejemplo de una configuración de un teléfono celular.
La figura 26 ilustra una estructura de datos -multiplexados .
La figura 27 muestra esquemáticamente como cada corriente es multiplexada en datos multiplexados .
La figura 28 muestra como una corriente de video es almacenada en una corriente de paquetes PES con mayor detalle .
La figura 29 muestra una estructura de paquetes TS y paquetes fuente en los datos multiplexados .
La figura 30 muestra una estructura de datos de una PMT.
La figura 31 muestra una estructura interna de información de datos multiplexados, .
La figura 32 muestra una estructura interna de información de atributo de corriente.
La figura 33 muestra las etapas para identificar datos de video.
La figura 34 muestra un ejemplo de una configuración de un circuito integrado para implementar el método de codificación de película y el método de decodificación de película de acuerdo con cada una de las modalidades .
La figura 35 muestra una configuración para conmutación entre frecuencias de activación.
La figura 36 muestra las etapas para identificar datos de video y conmutación entre frecuencias de activación.
La figura 37 muestra un ejemplo de una tabla de búsqueda en la cual los estándares de datos de video se asocian con frecuencias de activación.
La figura 38A es un diagrama que muestra un ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señal.
La figura 38B es un diagrama que muestra otro ejemplo de una configuragión para compartir un módulo de la unidad de procesamiento de señal.
DESCRIPCION DETALLADA DE LA INVENCIÓN
En lo siguiente se describirán las modalidades de la presente invención con referencia a las figuras.
MODALIDAD 1
La figura 2 es un diagrama de bloques que muestra la configuración de un aparato de codificación de imagen de acuerdo con la presente modalidad.
Un aparato 1000 de codificación de imagen incluye una unidad 1100 e procesamiento de codificación de una unidad 1200 de control de codificación.
La unidad 1100 de procesamiento de codificación genera una corriente codificada al codificar películas en una base bloque por bloque. La unidad 1100 de procesamiento de codificación incluye un sustractor 1101, una unidad 1102 de transformada ortogonal, una unidad 1103 de cuantificación, una unidad 1104 de codificación de entropía, una unidad 1105 de cuantificación inversa, una unidad 1106 de trasformada ortogonal inversa, un adicionador 1107, un filtro 1108 de desbloqueo, una memoria 1109, una unidad 1110 intrapedicción, una unidad 1111 de compensación de movimiento, una unidad 1112 de cálculo de movimiento y un conmutador 1113.
El sustractor 1101 obtiene una película y una imagen de predicción del conmutador 1113. El sustractor 1101 resta la imagen de predicción de bloque actual para ser codificado incluido en la película, para generar una imagen de diferencia.
La unidad 1102 de transformada ortogonal realiza la transformada ortogonal tal como la transformada de coseno discreta sobre la imagen de diferencia generada por el sustractor 1101, para transformar la imagen de diferencia en un bloque de coeficiente que comprende una pluralidad de coeficientes de frecuencia. La unidad 1103 de cuantificación cuantifica cada uno de los coeficientes de frecuencia incluidos en el bloque de coeficiente para generar un bloque de coeficiente cuantificado.
La unidad 1104 de codificación de entropía genera una corriente codificada al realizar codificación de entropía (codificación de longitud variable) sobre el bloque de coeficiente cuantificado por la unidad 1103 de cuantificación y un vector de movimiento calculado por la unidad 1112 de cálculo de movimiento.
La unidad 1105 de cuantificación inversa realiza cuantificación inversa sobre el bloque de coeficiente cuantificado por la unidad 1103 de cuantificación. La unidad 1106 de transformada ortogonal inversa genera una imagen de diferencia decodificada al realizar transformada ortogonal inversa tal como transformada de coseno discreto inversa sobre cada uno de los coeficientes de frecuencia incluidos en el bloque de coeficiente cuantificado inversamente.
El adicionador 1107 genera una imagen decodificada localmente al obtener una imagen de predicción a partir del conmutador 1113 y al sumar la imagen de predicción y la imagen de diferencia decodificada la cual se genera por la unidad 1106 de transformada ortogonal inversa.
El filtro 1108 de desbloqueo elimina la distorsión de bloque de la imagen decodificada localmente generada por el adicionador 1107 y almacena la imagen decodificada localmente en la memoria 1109.
La unidad 1110 intrapredicción genera una imagen de predicción al realizar intrapredicción sobre el bloque actual que va a ser codificado utilizando la imagen decodificada localmente generada por el adicionador 1107.
La unidad 1112 de cálculo de movimiento calcula un vector de movimiento para el bloque actual que va a ser codificado incluido en la película y transmite el vector de movimiento calculado a la unidad 1111 de compensación de movimiento y a la unidad 1104 de codificación de entropía.
La unidad 1111 de compensación de movimiento realiza compensación de movimiento sobre el bloque actual que va a ser codificado con referencia a la imagen almacenada en la memoria 1109 como una imagen de referencia y mediante la utilización del vector de movimiento calculado por la unidad
1112 de cálculo de movimiento. La unidad 1111 de compensación de movimiento genera, por la compensación de movimiento, una imagen de predicción con respecto al bloque actual que va a ser codificado.
Cuando se realiza codificación intrapredictiva sobre el bloque actual que va a ser codificado, el conmutador
1113 transmite la imagen de predicción generada por la unidad 1110 intrapredicción al sustractor 1101 y al adicionador 1107. Cuando se realiza la codificación interpredictiva sobre el bloque actual que se va a codificar, el conmutador 1113 transmite la imagen de predicción generada por la unidad 1111 de compensación de movimiento al sustractor 1101 y al adicionador 1107.
La unidad 1200 de control de codificación controla a la unidad 1100 de procesamiento de codificación. De manera más específica, la unidad 1200 de control de codificación determina una unidad de procesamiento en la cual se almacena el parámetro de cuantificación y la información de profundidad de jerarquía para especificar la ubicación de la unidad de procesamiento. El parámetro de cuantificación es un parámetro utilizado para cuantificación por la unidad 1103 de cuantificación y cuantificación inversa por la unidad 1105 de cuantificación inversa. Las unidades de procesamiento de acuerdo con la presente modalidad son estratificadas y cada una de las unidades de procesamiento en cualquier capa corresponde al bloque descrito en lo anterior. La información de profundidad de jerarquía es, por ejemplo, un parámetro para especificar la capa que tiene una unidad de procesamiento en la cual se almacena un parámetro de cuantificacion. La unidad 1200 de control de codificación instruye a la unidad 1104 de codificación de entropía para almacenar un parámetro de cuantificacion en la unidad de procesamiento determinada en lo anterior y para almacenar la información de profundidad de jerarquía en el encabezador de la corriente codificada (por ejemplo, encabezador de secuencia o encabezador de imagen) .
La figura 3 es un diagrama de bloques que muestra la configuración de un aparato de decodificación de imagen de acuerdo con la presente modalidad.
Un aparato 2000 de decodificación de imagen incluye una unidad 2100 de procesamiento de decodificación y una unidad 2200 de control de decodificación.
La unidad 2100 de procesamiento de decodificación genera una imagen decodificada al decodificar una corriente codificada en una base bloque por bloque. La unidad 2100 de procesamiento de decodificación incluye una unidad 2101 de decodificación de entropía, una unidad 2102 de cuantificacion inversa, una unidad 2103 de transformada ortogonal inversa, un adicionador 2104, un filtro 2105 de desbloqueo, una memoria 2106, una unidad 2107 intraprediccion, una unidad 2108 de compensación de movimiento y un conmutador 2109.
La unidad 2101 de decodificación de entropía obtiene una corriente codificada y realiza decodificación de entropía (decodificación de longitud variable) sobre la corriente codificada- La unidad 2102 de cuantificación inversa realiza cuantificación inversa sobre el bloque de coeficiente cuantificado generado por la decodificación de entropía por la unidad 2101 de decodificación de entropía. La unidad 2103 de transformada ortogonal inversa genera una imagen de diferencia decodificada al realizar transformada ortogonal inversa tal como transformada de coseno discreta inversa sobre cada uno de los coeficientes de frecuencia incluidos en el bloque de coeficiente cuantificado inversamente.
El adicionador 2104 genera una imagen decodificada al obtener una imagen de predicción del conmutador 2109 y al sumar la imagen de predicción y la imagen de diferencia decodificada la cual se genera por la unidad 2103 de transformada ortogonal inversa.
El filtro 2105 de desbloqueo elimina la distorsión de bloque de la imagen decodificada generada por el adicionador 2104, almacena la imagen decodificada en la memoria 2106 y transmite la imagen decodificada.
La unidad 1110 intraprediccion genera una imagen de predicción al realizar intrapredicción en el bloque actual que se va a decodificar utilizando la imagen decodificada generada por el adicionador 2104.
La unidad 2108 de compensación de movimiento realiza compensación de movimiento sobre el bloque actual que va a ser decodificado con referencia a la imagen almacenada en la memoria 2106 como una imagen de referencia y mediante la utilización del vector de movimiento generado por decodificación de entropía por la unidad 2101 de decodificación de entropía. La unidad 2108 de compensación de movimiento genera, mediante la compensación de movimiento, una imagen de predicción con respecto al bloque actual que va a ser decodificado.
Cuando se realiza codificación intrapredictiva sobre el bloque actual que va a ser decodificado, el conmutador 2109 transmite la imagen de predicción generada por la unidad 2107 de intrapredicción al adicionador 2104. Cuando la codificación interpredictiva se realiza sobre el bloque actual que se va a decodificar, el conmutador 2109 transmite la imagen de predicción generada por la unidad 2108 de compensación de movimiento al adicionador 2104.
La unidad 2200 de control de decodificación controla a la unidad 2100 de procesamiento de decodificación. De manera más específica, la unidad 2200 de control de decodificación analiza la información de profundidad de jerarquía almacenada en el encabezador de la corriente codificada (por ejemplo, el encabezador de secuencia o el encabezador de imagen) en base en el resultado de la decodificación de entropía por la unidad 2101 ' de decodificación de entropía. La unidad 2200 de control de decodificación identifica, en base en la información de profundidad de jerarquía, la capa jerárquica que tiene una unidad de procesamiento en la cual un parámetro de cuantificación se almacena y analiza el parámetro de cuantificación incluido en la unidad de procesamiento en la capa jerárquica. La unidad 2200 de control de decodificación instruye a la unidad 2102 de cuantificación inversa a realizar cuantificación inversa utilizando el parámetro de cuantificación analizado.
La figura 4 es un diagrama de ilustración para describir unidades de procesamiento estratificadas (estructura de bloques multij erárquica) .
La unidad 1100 de procesamiento de codificación realiza codificación sobre la película para cada una de las unidades de procesamiento y la unidad 2100 de procesamiento de decodificación decodifica la corriente codificada para cada una de las unidades de procesamiento. La unidad de procesamiento se divide en unidades de procesamiento pequeñas y las unidades de procesamiento pequeñas son estratificadas de manera que cada una de las unidades de procesamiento pequeñas se divide en unidades de procesamiento más pequeñas. Debe hacerse notar que cuando la unidad de procesamiento es más pequeña, la capa jerárquica en la cual existe la unidad de procesamiento es más profunda y menor y que el valor que muestra la capa jerárquica es mayor. En contraste, cuando la unidad de procesamiento es más grande, la capa jerárquica en la cual existe la unidad de procesamiento es de poca profundidad y está en un nivel alto y el valor que muestra la capa jerárquica es pequeño.
La unidad de procesamiento incluye una unidad de codificación (CU) , una unidad de predicción (PU) y una unidad de transformada (TU) . La CU es un bloque de máximo 128 x 128 pixeles, y corresponde a la macrobloque convencional. La PU es una unidad básica para interpredicción. TU es una unidad básica para transformada ortogonal y el tamaño de TU es el mismo que el tamaño de PU o es menor que el tamaño de PU por una capa jerárquica. Por ejemplo, CU se divide en cuatro CU secundarias y una de las CU secundarias incluye a PU y TU, ambos con el mismo tamaño que la CU secundaria (en este caso, PU y TU se superponen entre sí) . Por ejemplo, la PU se divide adicionalmente en cuatro PU secundarias y TU también se divide adicionalmente en cuatro TU secundarias. Debe hacerse notar que cuando la unidad de procesamiento se divide en unidades de procesamiento pequeñas, la unidad de procesamiento pequeña es una unidad de procesamiento secundaria. Por ejemplo, cuando la unidad de procesamiento es CU, la unidad de procesamiento secundaria es una CU secundaria. Cuando la unidad de procesamiento es PU, la unidad de procesamiento secundaria es una PU secundaria. Cuando la unidad de procesamiento es TU, la unidad de procesamiento secundaria es una TU secundaria.
Lo siguiente describirá el detalle.
Las imágenes se dividen en rebanadas . Una rebanada es una secuencia de unidades codificantes más grandes. La ubicación de la unidad codificante más grande se específica por la dirección de la unidad de codificación más grande IcuAddr .
Cada unidad de codificación incluye una unidad de codificación más grande se divide en cuatro unidades de codificación recursivamente . Resulta en una segmentación de árbol cuádruple de la unidad de codificación. La ubicación de la unidad de codificación se especifica por el índice de unidad de codificación culdx en el cual la muestra izquierda superior (pixel o coeficiente) de la unidad codificante más grande se determina como un origen.
Una vez que la unidad codificante no se permite que se divida, se considera como una unidad de predicción. De manera similar a la unidad codificante, la ubicación de la unidad de predicción se específica por el índice de unidad de predicción puldx en el cual la muestra izquierda superior (pixel o coeficiente) de la unidad codificante más grande se determina como un origen.
ta unidad de predicción puede incluir divisiones múltiples (divisiones de unidad de predicción o PU secundarias) . La división de unidad de predicción se específica por el índice de división de predicción puPartIdx en el cual la muestra izquierda superior de la unidad de predicción se determina como un origen.
La unidad de predicción puede incluir unidades de transformada múltiple. De manera similar a la unidad de codificación, la unidad de transformada puede dividirse en cuatro unidades transformadas pequeñas (unidades de transformada secundaria) se modo recursivo. Esto permite la segmentación en cuadrantes de la señal residual. La ubicación de la unidad de transformada se específica por el índice de unidad de transformada tuldx en el cual la muestra izquierda superior de la unidad de predicción se determina como un origen.
Aquí, las definiciones de las unidades de procesamiento son las siguientes.
Bloque de árbol de codificación (CTB, por sus siglas en inglés): Una unidad básica para especificar la segmentación de cuadrantes de una región cuadrada dada. CTB tiene diversos tamaños de una forma cuadrada.
Bloque de árbol de codificación más grande (LTCB, por sus siglas en inglés) : Bloque de árbol de codificación del tamaño más grande permitido en la rebanada. Una rebanada consiste de las LCTB no superpuestas.
Bloque se árbol de codificación más pequeño (SCTB, por sus siglas en inglés) : Bloque de árbol de codificación del tamaño más pequeño permitido en la rebanada. No se permite que SCTB se divida en CTB más pequeños .
Unidad de predicción (PU) : Una unidad básica para especificar el proceso de predicción. El tamaño de la PU es el mismo que el de la CU la cual no se ha permitido para división más. PU puede dividirse en divisiones múltiples las cuales pueden tener formar arbitrarias mientras que CU se permite que se divida en cuatro formas cuadradas .
Unidad de transformada (TU) : Una unidad básica para especificar transformada y procesos de cuantificación.
Unidad de codificación (CU) : Igual que el bloque de árbol de codificación.
Unidad de codificación más grande (LCU, por sus siglas en inglés) : Igual que el bloque de árbol de codificación más grande.
Unidad de codificación más pequeña (SCU, por sus siglas en inglés) : Igual que el bloque de árbol de codificación más pequeño.
Además, los parámetros de cuantificación incluyen uno o más de los siguientes parámetros: delta de parámetro de escala de cuantificación (delta QP o QP delta) , parámetro de desviación de cuantificación, un índice (Qmatrix sección idc) y parámetro de desviación de zona de inactividad de cuantificación. Debe hacerse notar que el índice es para seleccionar una matriz de escala de cuantificación a partir de una pluralidad de matrices de escala de cuantificación.
El parámetro de escala de cuantificación delta (delta QP o QP delta) es una diferencia entre el parámetro de escala de cuantificación que se va a aplicar a los coeficientes de transformada y el parámetro de escala de cuantificación para ser especificado por un encabezador de secuencia o encabezador de rebanada (o el parámetro de escala de cuantificación previo en una orden de exploración Z) .
El parámetro de desviación de cuantificación también se denomina desviación de cuantificación y es un valor de ajuste (valor de desviación) para redondear una señal cuando se realiza cuantificación. Por lo tanto, el aparato 1000 de codificación de imagen codifica la desviación de cuantificación cuando se realiza la cuantificación y el aparato 2000 de decodificación de imagen decodifica la desviación de cuantificación codificada. Después, el aparato 2000 de decodificación de imagen realiza corrección utilizando desviación de cuantificación cuando se realiza cuantificación inversa sobre los coeficientes de transformada.
El índice (Qmatrix selección idc) también se denomina matriz de cuantificación adaptable y es un índice que indica cual matriz de escalado de cuantificación se utiliza para una pluralidad de matrices de escalado de cuantificación. Además, Qmatrix selección idc muestra si la matriz de escalado de cuantificación se utiliza o no cuando existe únicamente una matriz de escalado de cuantificación. Debe hacerse notar que la matriz de cuantificación adaptable se puede controlar en una base bloque por bloque (unidad de procesamiento) .
El parámetro de desviación de zona inactiva de cuantificación también se denomina zona inactiva adoptiva y es información de control para cambiar de manera adaptable la zona inactiva, en una base bloque por bloque. La zona inactiva es una anchura en la cual los coeficientes de frecuencia se vuelven cero por cuantificación (la anchura previa la cual se vuelve más 1 o menos 1 después de la cuantificación) .
La figura 5 es un diagrama que muestra la configuración de una corriente codificada que va a ser generada por el programa TMuC.
En una corriente codificada generada por el programa de modelo de prueba bajo consideración (TMuC, por sus siglas en inglés) , se almacena delta QP en LCU. En otras palabras, en la corriente codificada, el mismo parámetro de cuantificación tal como delta QP se aplica a todos los coeficientes incluidos en LCU que es una unidad de procesamiento grande. Como un resultado, el parámetro de cuantificación no se puede ajustar para un detalle de la imagen y la calidad de la imagen disminuye.
Por lo tanto, en la corriente codificada generada por el aparato 1000 de codificación de imagen y decodificada por el aparato 2000 de decodificación de imagen de acuerdo con la presente modalidad, el parámetro de cuantificación se almacena en una unidad de procesamiento la cual se localiza en una capa jerárquica inferior que es más profunda que LCU.
La figura 6A, la figura 6B y la figura 6C son cada una un diagrama que muestra la configuración de una corriente codificada de acuerdo con la presente modalidad.
Como se muestra en la figura 6A, en la corriente codificada de acuerdo con la presente modalidad, la LCU se divide en cuatro CU secundarias y delta QP para ser aplicada a cada una de las CU secundaria es almacenada en la CU secundaria. En otras palabras, cuando la LCU es la primera capa jerárquica, se almacena delta QP en CU la cual se localiza más abajo por dos capas jerárquicas a partir de LCU. Además, en la CU secundaria, se coloca delta QP después de todos los coeficientes de transformada incluidos en la CU secundaria.
Además, en la corriente codificada de acuerdo con la presente modalidad, la información de profundidad de jerarquía la cual indica la capa jerárquica más baja de la unidad de procesamiento
(Max_quantization_unit_hierarchy_depth (profundidad e jerarquía de la unidad de cuantificación máxima)) en la cual se almacena delta QP que es almacenada en el encabezador de secuencia. Por ejemplo, la
Max_quantization_unit_hierarchy_depth = 2.
El aparato 1000 de codificación de imagen genera y transmite la corriente codificada. Mientras tanto, el aparato 2000 de decodificación de imagen identifica la unidad de procesamiento en al cual se almacena delta QP (CU secundario localizada en la segunda capa jerárquica) mediante análisis de la información de profundidad de jerarquía (Max_quantization_unit_hierarchy_depth) almacenada en el encabezador de secuencia de la corriente codifica y analiza delta QP almacenada en el unidad de procesamiento. Después, el aparato de decodificación de imagen 2000 realiza cuantificación inversa en delta QP al aplicar delta QP a cada uno de los coeficientes de transformada de la CU secundaria la cual almacena delta QP.
Como se muestra en la figura 6B, idc de selección Qmatrix se puede almacenar en vez de delta QP. Además, como se muestra en la figura 6C, el parámetro de cuantificación que incluye delta QP e idc de selección Qmatrix se puede almacenar.
La figura 7 es un diagrama que muestra la configuración de otra corriente codificada de acuerdo con la presente modalidad.
En la corriente codificada que se muestra en la figura 6A a la figura 6C, el parámetro de cuantificación se almacena en la CU secundaria localizada en la segunda capa jerárquica. No obstante, como se muestra en la figura 7, el parámetro de cuantificación se puede almacenar en la CU secundaria o la TU secundaria localizada en la tercera capa jerárquica más profunda
(Max_quantization_unit_hierarchy_depth = 3) .
La figura 8A y la figura 8B son cada una son un diagrama que muestran la configuración de otra corriente codificada adicional de acuerdo con la presente modalidad.
En la corriente codificada que se muestra en la figura 8A, la delta Qp que se va a aplicar a TU o TU secundaria se almacena en la TU o la TU secundaria. En la TU o la TU secundaria, la delta QP se coloca después de la totalidad de los coeficientes de transformada incluidos en la TU o la TU secundaria.
Además, como se muestra en al figura 8B, el parámetro de cuantificación diferente de delta Qp y el parámetro de cuantificación que incluye a delta QP idc de selección Qmatrix se puede almacenar como una unidad de cuantificacion.
La figura 9A y la figura 9B son cada una un diagrama que muestra la ubicación de almacenamiento de Max_quan ization_unit_hierarchy_depth.
Se almacena (Max_qúantization_unit_hierarchy_depth D300 en el encabezado de secuencia, como se muestra en la figura 9A. Además, se almacena
(Max_quantization_unit_hierarchy_depth D302 en el encabezador de imagen, como se muestra en al figura 9B . En otras palabras, el aparato 1000 de codificación de imagen escribe información de profundidad de jerarquía en el encabezador de imagen para una imagen que comprende una pluralidad de unidades de procesamiento. Como un resultado, al información de profundidad de jerarquía se almacena en el encabezador de imagen .
La figura 10A a la figura 10D son cada una un diagrama para describir los tipos de parámetro de cuantificación.
El parámetro de cuantificación o la unidad de cuantificación D600, como se muestra desde la figura 10A a la figura 10D incluye por lo menos un parámetro D602 de escala de cuantificación delta, un parámetro D604 de desviación de zona inactiva de cuantificación, un índice D606 y un parámetro D608 de desviación de cuantificación . Debe hacerse notar que el parámetro D602 de escala de cuantificación delta es delta QP y el índice D606 es idc de selección Qmatrix (matriz de cuantificación adaptable) .
La figura 11 es un diagrama de flujo que muestra la decodificación de delta QP por el aparato 2000 de decodificación de generación de imagen.
En primer lugar, el aparato 2000 de decodificación de imagen decodifica la información de profundidad de jerarquía (Max_quantization_unit_hierarchy_depth) almacenada en el encabezador (etapa SI) y determina el tamaño más pequeño de la unidad de procesamiento de cuantificación (unidad de cuantificación mínima) (etapa S2) . Después, el aparato 2000 de decodificación de imagen determina si la CU actual que se va a decodificar tiene o no el tamaño (S3) . En la presente, cuando se determina que la CU actual que se va decodificar tiene el tamaño de unidad de cuantificación mínima (sí, en la etapa S3) , el aparato 2000 de decodificación de imagen decodifica delta QP almacenado en la CU (etapa S4) . Mientras tanto, cuando se determina que la CU actual que se va a decodificar no tiene el tamaño de una unidad de cuantificación mínima (no, en la etapa S3) , el aparato 2000 de decodificación de imagen determina adicionalmente si el indicador de la corriente CU que se va a decodificar indicador (split_coding_unit (unidad de codificación dividida) ) es cero o no y si el tamaño de la CU actual que se va a decodificar es más grande que el tamaño de la unidad de cuantificación mínima (etapa S5) . Debe hacerse notar que cuando el indicador split_coding_unit descrito en lo anterior es cero, esto muestra que el indicador no puede dividirse aún más. Cuando el indicador split_coding_unit descrito antes es uno, esto muestra que el indicador puede dividir la CU aún más. En otras palabras, el aparato 2000 de decodificación de imagen, en la S5, determina si el CU actual se va decodificar puede o no ser dividido adicionalmente en el CU actual que se va a decodificar y se localiza más alto que la capa jerárquica indicada por la información de profundidad de jerarquía. Aquí, se determina que el indicador es cero y el tamaño de la CU actual que se va a decodificar es grande (sí, en la etapa S5) , el aparato 2000 de decodificación de imagen decodifica delta Qp almacenado en la CU actual que se va a decodificar (etapa S6) .
La figura 12 es un diagrama de flujo que muestra el cálculo de delta QP (parámetro de escala de cuantificación) por el aparato 2000 de decodificación de generación de imagen .
En primer lugar, el aparato 2000 de decodificación de imagen determina, mediante la suma de coded_block_flag (indicador de bloque codificado (CBF, por sus silgas en inglés) ) en cada TU en la unidad de procesamiento dividida en cuartos, si la TU para luminancia y crominancia incluida en la TU actual que se va a decodificar está o no codificada (etapas Sil y S12) . Debe hacerse notar que cada una de las TU almacena el coded_block_flag descrita en lo anterior que es un indicador que muestra si es o no un coeficiente de transformada. Aquí, cuando se determina que TU está codificada (sí, en la etapa S12) , el aparato 2000 de decodificación de imagen decodifica delta Qp incluida en la TU (etapa S14) . Mientras tanto, cuando se determina que TU no esté codificada (no, en la etapa S12) , el aparato 2000 de decodificación de imagen establece delta QP en cero (etapa S13) . Además, el aparato 2000 de decodificación de imagen determina QP de CU previa en un orden de exploración Z (etapa S15) y calcula Qp e la CU actual que se va a decodificar (etapa S16) .
Como se describe en lo anterior, cuando las unidades de procesamiento son estratificadas jerárquicamente, el aparato 1000 de codificación de imagen de acuerdo con la presente modalidad puede escribir un parámetro diferente (por ejemplo, el parámetro de cuantificación) el cual es diferente para cada una de las unidades de procesamiento pequeñas que se localizan en las capas jerárquicas inferiores. Como un resultado, el aparato 200 de decodificación de imagen puede decodificar unidades de procesamiento al aplicar un parámetro diferente a cada una de las unidades de procesamiento pequeñas y por lo tanto se puede mejorar la calidad de imagen. Además, al escribir, en el encabezador, la información de profundidad de jerarquía para especificar la capa jerárquica que tiene una unidad de procesamiento en la cual se almacena un parámetro necesario para decodificación, la capa jerárquica puede ser notificada al aparato 2000 de decodificación de imagen. Por lo tanto, se puede establecer la capa jerárquica en una capa jerárquica arbitraria sin limitar la capa jerárquica a la capa jerárquica más baja. Por lo tanto, la cantidad de codificación para todos los parámetros incluidos en una corriente codificada se puede reducir en comparación con el caso en donde un parámetro se almacena para cada una de la unidad de procesamiento más pequeña localizada en la capa jerárquica más baja, y se puede mejorar la eficiencia de codificación. Con esto, se puede mejorar simultáneamente tanto la calidad de imagen como la eficiencia de codificación. Además, puesto que el aparato 2000 de decodificación de imagen identifica, mediante análisis de la información de profundidad de jerarquía una capa jerárquica que tiene una unidad de procesamiento en la cual se especifica un parámetro que es almacenado, es posible para el aparato 2000 de decodificación de imagen reducir la carga de un proceso de búsqueda de la unidad de procesamiento en el cual se almacena el parámetro y decodificar apropiadamente la corriente codificada generada por el aparato 1000 de codificación de imagen. Debe hacerse notar que en la presente modalidad, el parámetro de cuantificación se menciona como un ejemplo de parámetro. No obstante, es aceptable cualquier forma de parámetro .
MODIFICACION 1
La figura 13 es un diagrama de flujo de decodificación de un aparato 2000 de decodificación de imagen de acuerdo con la modificación 1 de la presente modalidad.
El aparato 2000 de decodificación de imagen primero analiza la información de profundidad de jerarquía (Max_quantization_unit_hierachy_depth, (profundidad de jerarquía de unidad de cuantificación máxima)) almacenada en el encabezador de imagen (etapa S7000) y analiza el indicador de CU (etapa S702)). Después, el aparato 2000 de decodificación de imagen, en base en el indicador analizado divide la CU en CU secundarias más pequeñas (etapa S704) . Después, el aparato 2000 de decodificación de imagen determina la capa jerárquica de la CU secundaria (etapa S706) y determina si la capa jerárquica determinada coincide o no con la capa jerárquica indicada por
Max_quantization_unit_hierarchy_depth (etapa S708) .
Cuando se determina que la capa determinada coincide con la capa jerárquica especificada por (Max_quantization_unit_hierarchy_depth (sí, en la etapa S708) , el aparato 2000 de decodificación de imagen analiza el parámetro de cuanti icación almacenado en la CU secundaria (etapa S710) y decodifica la CU secundaria al realizar cuantificación inversa con el parámetro de cuantificación analizado (etapa S712) .
Mientras tanto, cuando se determina en la etapa S708 que la capa determinada no coincide con la capa jerárquica especificada por
Max_quantization_unit_hierarchy_depth (no, en la etapa S708) , el aparato 2000 de decodificación de imagen determina si la CU secundaria no puede ser dividida adicionalmente en cuatro CU secundarias más pequeñas, en base en el indicador descrito en lo anterior (etapa S714) . Aquí, cuando se determina que la CU secundaria no puede ser dividida adicionalmente (sí, en la etapa S714) , el aparato 2000 de decodificación de imagen realiza los procesos de las etapas S710 y S712 descritas en lo anterior en la CU secundarias. Mientras tanto, cuando se determina que la CU secundaria puede ser dividida adicionalmente (no, en la etapa S714) , el aparato 2000 de decodificación de imagen selecciona cualquiera de las cuatro CU secundarias más pequeñas (etapa S716) y realiza los procesos a partir de S706 en las CU secundarias seleccionadas.
La figura 14 es un diagrama de flujo de codificación de un aparato 1000 de codificación de imagen de acuerdo con la modificación 1 de la presente modalidad.
En primer lugar, el aparato 1000 de codificación de imagen escribe información de profundidad de jerarquía (Max_quantization_unit_hierarchy_depth) en el encabezador de imagen (etapas S800) y determina el tamaño más apropiado para dividir la CU (etapa S802) . Después, el aparato 1000 de codificación de imagen escribe, en la CU, un indicador para dividir la CU en unidades de procesamiento de tamaño determinado (etapa S804) . Después, el aparato 1000 de codificación de imagen determina la capa jerárquica de la unidad de procesamiento que se va a codificar (CU o Cu secundaria) (etapa S808) y determina si la capa jerárquica determinada coincide o no con la capa jerárquica indicada por Max_quantization_unit_hierarchy_depth que ha sido escrita previamente (etapa S808) .
Cuando se determina que coinciden entre sí (sí, en la etapa S808) , el aparato 1000 de codificación de imagen escribe parámetros de cuantificación en al unidad de procesamiento (CU o CU secundaria) (etapa S810) en el aparato 1000 de codificación de imagen y codifica la unidad de procesamiento al realizar cuantificación utilizando el parámetro de cuantificación escrita (etapa S812) . Además, el aparato 1000 de codificación de imagen realiza cuantificación inversa utilizando el parámetro de cuantificación escrito para decodificar la unidad de procesamiento codificada (etapa S814) .
Mientras tanto, cuando se determina en la etapa S808 que no coinciden entre sí (no, en la etapa S808) , el aparatQ 1000 de codificación de imagen determina si la unidad de procesamiento no puede dividirse adicionalmente en cuatro CU secundarias más pequeñas en base en el indicador descrito antes (etapa S816) . Aquí, cuando se determina que la CU secundaria no puede ser dividida adicionalmente (sí, en la etapa S816) , el aparato 1000 de codificación de imagen realiza las etapas descritas en lo anterior comenzando desde la etapa S810 sobre la unidad de procesamiento. Mientras tanto, cuando se determina que la CU secundaria se puede dividir adicionalmente (no, en la etapa S816) , el aparato 1000 de codificación de imagen selecciona cualquiera de las cuatro u secundarias más pequeñas (etapa S818) y realiza los procesos a partir de S806 sobre la Cu secundaria seleccionada.
MODIFICACION 2
La figura 15A y al figura 15B son, cada una, un diagrama de flujo de decodificación de un aparato 2000 de decodificación de imagen de acuerdo con la modificación 2 de la presente modalidad.
El aparato 2000 de decodificación de imagen primero analiza la información de profundidad de jerarquía (Max_quantization_unit_hierachy_depth) almacenada en el encabezador de imagen (etapa S900) y analiza el indicador de CU (etapa S902) . Después, el aparato 2000 de decodificación de imagen, en base en los indicadores analizados, divide la Cu en CU secundarias más pequeñas (etapa S904) . Después, el aparato 2000 de decodificación de imagen determina la capa jerárquica de la CU secundaria (etapa S906) y determina si la capa jerárquica determinada coincide o no con la capa jerárquica indicada por Max_quantization_unit_hierarchy_depth (etapa S908) .
Cuando se determina que coinciden entre sí (sí, en la etapa S908) , el aparato 2000 de decodificación de imagen analiza el parámetro de cuantificación almacenado en la CU secundaria (unidad de procesamiento) (etapa S910) y decodifica la CU secundaria al realizar cuantificación inversa con el parámetro de cuantificación analizado (etapa S912) .
Mientras tanto, cuando se determina en la etapa S908 que no coinciden entre sí (no, en la etapa S908) , el aparato 2000 de decodificación de imagen determina si la CU secundaria no puede ser dividida adicionalmente en cuatro CU secundarias más pequeñas, en base en el indicador descrito en lo anterior (etapa S914) . Cuando se determina que la CU secundaria puede ser dividida adicionalmente (no, en la etapa S914) , el aparato 2000 de decodificación de imagen selecciona cualquiera de las cuatro CU secundarias más pequeñas (etapa S928) y realiza los procesos desde S906 en la CU secundaria seleccionada .
Mientras tanto, cuando se determina en la etapa 914 que la CU secundaria no puede ser dividida adicionalmente (sí, en la etapa S914), el aparato 2000 de decodificación de imagen analiza el indicador de división de transformada localizado dentro de la TU de la CU secundaria (etapa S916) y divide la TU en TU secundarias que son unidades de procesamiento más pequeñas, en base en el indicador de división de transformada analizado (etapa S918) . Además, el aparato 2000 de decodificación de imagen determina la capa jerárquica de LCU con respecto a la TU secundaria (etapa S920) y determina si la capa jerárquica determinada coincide o no con la capa jerárquica indicada por Max_quantization_unit_hierarchy_depth (etapa S922) .
Cuando se determina que coinciden entre sí (sí, en la etapa S922) , el aparato 2000 de decodificación de imagen realiza el proceso desde S910 en la TU secundaria. Mientras tanto, cuando se determina en la etapa S922 que no coinciden entre sí (no, en la etapa S922) , el aparato 2000 de decodificación de imagen determina si la TU secundaria no puede ser dividida adicionalmente en cuatro TU más pequeñas, en base en el indicador de división de transformada descrito en lo anterior (etapa S926) . Cuando se determina que la TU secundaria puede ser divida adicionalmente (no, en la etapa S926) , el aparato 2000 de decodificación de imagen selecciona cualquiera de las cuatro TU secundarias más pequeñas (etapa S924) y realiza los procesos a partir de S920 en la TU secundaria seleccionada. Cuando se determina que la TU secundaria no puede ser dividida adicionalmente (si, en la etapa S926) , el aparato 2000 de decodificación de imagen realiza el proceso desde S910.
La figura 16A y la figura 16B son, cada una, un diagrama de flujo de codificación de un aparato 1000 de codificación de imagen de acuerdo con la modificación 2 de la presente modalidad.
En primer lugar, el aparato 1000 de codificación de imagen escribe información de profundidad de jerarquía (Max_quantization_unit_hierarchy_depth) en el encabezador de imagen (etapa S1000) y determina el tamaño más apropiado para dividir la CU (etapa S1002) . Después, el aparato 1000 de codificación de imagen escribe, en la CU, un indicador para dividir la CU en unidades de procesamiento de los tamaños determinados (etapa S1004) . Después del aparato 1000 de codificación de imagen determina la capa jerárquica de la unidad de procesamiento que se va a codificar (CU o CU secundaria) (etapa S1006) y determina si la capa jerárquica determinada coincide o no con la capa jerárquica indicada por Max_quantization_unit_hierarchy_depth que se ha escrito previamente (etapa S1008) .
Cuando se determina que coinciden entre sí (si, en la etapa S1008) , el aparato 1000 de codificación de imagen escribe un parámetro de cuantificación en la unidad de procesamiento (CU o CU secundaria) (etapa S1010) en el aparato 1000 de codificación de imagen que codifica la unidad de procesamiento al realizar cuantificación utilizando los parámetros de cuantificación escrita (etapa S1030) . Además, el aparato 1000 de codificación de imagen realiza cuantificación inversa utilizando el parámetro de cuantificación escrita para decodificar la unidad de procesamiento codificada (etapa S1012) .
Mientras tanto, cuando se determina en la etapa S1008 que no coinciden entre sí (no, en la etapa S1008) , el aparato 1000 de codificación de imagen determina si la unidad de procesamiento no puede ser dividida adicionalmente en cuatro CU secundarias más pequeñas en base en el indicador descrito en lo anterior (etapa S1014) . Cuando se determina que la CU secundaria puede ser dividida adicionalmente (no, en la etapa S1014) , el aparato 1000 de codificación de imagen selecciona cualquiera de las cuatro CU secundarias más pequeñas (etapa S1028) y realiza los procesos desde S1006 en la CU secundaria seleccionada.
Mientras tanto, cuando se determina que la CU secundaria no puede ser dividida adicionalmente en la etapa S1014 (sí, en la etapa S1014) , el aparato 1000 de codificación de imagen determina el tamaño más apropiado para dividir la TU dentro de la unidad de procesamiento (CU o CU secundaria) (etapa S1016) y escribe, en la TU, un indicador (indicador de división de transformada) para dividir la TU en unidades de procesamiento de los tamaños determinados (etapa S1018) . Posteriormente, el aparato 1000 de codificación de imagen determina la capa jerárquica a partir de LCU con respecto a la unidad de procesamiento que se va a codificar (TU o TU secundaria) (etapa S1020) y determina si la capa jerárquica determinada coincide o no con la capa jerárquica indicada por Max_quantization_unit_hierarchy_depth que ha sido escrita previamente (etapa S1022) .
Cuando se determina que coinciden entre sí (sí, en la etapa S1022) , el aparato 1000 de codificación de imagen realiza los procesos desde la etapa S1010 en la unidad de procesamiento (Tu o TU secundaria) (etapa S1010) . Mientras tanto, cuando se determina la etapa S1022 que no coinciden entre sí (no, en la etapa S1022), el aparato 1000 de codificación de imagen determina si la unidad de procesamiento (TU o TU secundaria) no puede ser dividida adicionalmente en cuatro TU secundarias más pequeñas, en base en el indicador de división de transformada descrito en lo anterior (etapa S1Q26) . Cuando se determina que la TU secundaria puede ser dividida adicionalmente (no, en la etapa S1026) , el aparato 1000 de codificación de imagen selecciona cualquiera de las cuatro TU secundarias más pequeñas (etapa S1024) y realiza el proceso desde S102O sobre las TU secundarias seleccionadas. Cuando se determina en la etapa S1026 que la TU secundaria no puede ser dividida adicionalmente (si, en la etapa S1026) , el aparato 1000 de codificación de imagen realiza los procesos desde S1010. En otras palabras, el aparato 1000 de codificación de imagen escribe un parámetro de cuantificación en la unidad de procesamiento (TU o TU secundaria) (etapa S1010) , el aparato 1000 de codificación de imagen codifica la unidad de procesamiento al realizar cuantificación utilizando los parámetros de cuantificación escrita (etapa S1030) . Además, el aparato 1000 de codificación de imagen realiza cuantificación inversa utilizando el parámetro de cuantificación escrita para decodificar la unidad de procesamiento codificada (etapa S1012) .
Los problemas y la solución en la presente invención son los siguientes .
En otras palabras, al dividir una imagen en unidades de codificación grandes, se puede mejorar la eficiencia de codificación. No obstante, cuando el parámetro de cuantificación se establece en una unidad de codificación grande, la flexibilidad de ajuste de tamaño de la imagen se pierde en el aparato de codificación de imagen puesto que el tamaño de la unidad de codificación es grande. El parámetro de cuantificación incluye por lo menos un parámetro de escala de cuantificación, parámetros de desviación de cuantificación e índice. Debe hacerse notar que el índice es para seleccionar una matriz de escala de cuantificación de entre una pluralidad de matrices de escala de cuantificación.
Por ejemplo, un rasgo importante de codificación y decodificación de una película es que el dispositivo de video requiere retraso lento en teleconferencia y cámara de seguridad se puede ajustar al tamaño máximo de una imagen. Con esto, es necesario que el parámetro de cuantificación se ajuste dentro de la unidad más pequeña de una imagen. Mientras tanto, los otros dispositivos de video no requieren el rasgo descrito en lo anterior y pueden mejorar la eficiencia de codificación al reducir la carga excesiva para transmitir los parámetros de cuantificación .
Aquí, la unidad de codificación, la unidad de predicción y la unidad de transformada son unidades básicas del estándar de codificación de video de alta eficiencia (HEVC, por sus siglas en inglés) . QP es un parámetro de escala de cuantificación que es un parámetro utilizado para proceso de escalado inverso en un valor diferente (valor delta) y se transmite en un nivel de unidad de codificación. En el modelo de prueba bajo consideración (TMuC, por sus siglas en inglés) de HEVC, el parámetro de escala de cuantificación delta no se transmite. No obstante, en el programa, el parámetro de escala de cuantificación delta se transmite al final de la cuantificación de la unidad de codificación más grande. No obstante, cuando la PU , esto es la unidad de predicción se salta, la profundidad de la CU que es la unidad codificante es cero. Esto significa que no se codifican el bloque Y, el bloque U y el bloque V.
En otras palabras, existen dos problemas (problemas 1 y 2) como se sigue.
Problema 1: el parámetro de escala de cuantificación delta codificante se limita únicamente a un nivel de unidad codificante más grande. Puede ser difícil para un dispositivo de video tener un retraso bajo o una velocidad de bitios constante para ajustar un bitio para cada una de las unidades codificantes. En otras palabras, en el estándar TMuC y el programa TMuC, la restricción es estricta respecto a la posición de información de almacenamiento y el parámetro de cuantificación se puede transmitir únicamente con la CU más grande. Como un resultado, no es posible que el parámetro de cuantificación sea controlado por una unidad más pequeña (unidad de procesamiento) .
Problema 2: cuando TU, es decir, una unidad de transformada no es codificada, o no es necesario el parámetro de cuantificación. No obstante, la técnica actual verifica en que momento se saltan TU y PU. Puesto que Tu y PU están separadas, la transmisión de QP delta únicamente depende de TU. Además, cuando no existen coeficientes de transformada (coeficientes generados por cuantificación y transformada ortogonal de una imagen en una región de espacio) , es necesario para un parámetro de cuantificación innecesario con respecto a los coeficientes de transformada que se van a transmitir. Como un resultado, una corriente codificada la cual muestra una imagen codificada se vuelve redundante.
Con el fin de resolver los problemas descritos en lo anterior se proporciona un método nuevo para transmitir un parámetro de cuantificación para cada unidad codificante máxima. El método de transmisión permite que el aparato de codificación de imagen selecciona un nivel para un parámetro de cuantificación incluido en la unidad codificante para que sea transmitido con el fin de asegurar tanto la funcionalidad del control de bitio fino de un bloque como la eficiencia de codificación alta.
Lo que es novedoso acerca de la presente invención es la alta flexibilidad o funcionalidad para el dispositivo de codificación de imagen en el cual la ubicación del parámetro de cuantificación en la unidad de codificación más grande de una imagen se determina para un mejor control de velocidad de datos. La funcionalidad no está presente en técnica anterior alguna y puede ayudar a mejorar la calidad de imagen de una película codificada mediante la combinación de usos de la unidad de codificación más grande y el parámetro de cuantificación. Lo que también es novedoso acerca de la presente invención es la ubicación del parámetro de cuantificación' en la unidad codificante. Especialmente, en la técnica convencional, el parámetro de cuantificación se incluye en el encabezador de la unidad codificante tal como un macrobloque. No obstante, en la presente invención, después de que es codificada la información de predicción y diferencia en el bloque, el parámetrp de cuantificación se codifica en el extremo de la unidad de codificación.
En otras palabras, existen soluciones a los problemas 1 y 2 descritos en lo anterior (solución 1 y solución 2), como sigue.
Solución 1: Con el fin de transmitir delta QP a un nivel CU pequeño, la información de profundidad de jerarquía se inserta en el encabezador (establecimiento de parámetro de secuencia/establecimiento de parámetro de imagen/encabezador de rebanada) . En otras palabras, el aparato de codificación de imagen almacena el parámetro de cuantificación en una unidad pequeña (unidad de procesamiento) localizada más profunda que la CU máxima y almacena en un encabezador, tal como un encabezador de secuencia o un encabezador de imagen, información de profundidad de jerarquía para especificar la capa jerárquica (profundidad de la capa jerárquica) en la cual existe la unidad de procesamiento. El aparato de decodificación de imagen especifica la capa jerárquica al someter a análisis la información de profundidad de jerarquía (profundidad de la capa jerárquica) en el encabezador y analiza el parámetro de cuantificación almacenado en la unidad de procesamiento localizada en la capa jerárquica especificada. aquí, la información de profundidad de jerarquía puede indicar la capa jerárquica más profunda (localizada más abajo) en la cual puede existir la unidad de procesamiento que almacena el parámetro de cuantificacion. En este caso, el aparato de decodificación de imagen especifica la capa jerárquica más baja indicada por la información de profundidad de jerarquía o la capa jerárquica la cual se localiza más alta que la capa jerárquica y que es diferente de la capa jerárquica más alta. Además, la información de profundidad de jerarquía puede ser un indicador el cual muestre si el parámetro de cuantificación está almacenado o no en una CU de una capa jerárquica predeterminada (por ejemplo, la CU la cual se localiza en la capa jerárquica más baja) .
Solución 2: Con el fin de saltar la transmisión de delta QP, se introduce una condición nueva para verificar el indicador de bloque codificado por TU o un patrón. Además, el aparato de codificación de imagen coloca el parámetro de cuantificación al final de la TU cuando transmite el parámetro de cuantificación. Con esto, el aparato de decodificación de imagen puede determinar en que momento el parámetro de cuantificación no es necesario (en que momento no existe un coeficiente de transformada) . Como un resultado, el aparato de codificación de imagen no necesita transmitir parámetros de cuantificacion innecesarios y se puede reducir la cantidad de codificación.
Como se describe en lo anterior, el método de decodificación de imagen y el método de codificación de imagen de acuerdo con la presente invención se han descrito con referencia a las modalidades y modificaciones descritas en lo anterior. No obstante, la presente invención no se define únicamente por esto.
Por ejemplo, los procesos tales cpmo las etapas S3 y S5 en la figura 11 se incluyen en el método de decodificación de imagen de acuerdo con la modalidad 1 y su modificación. No obstante, la presente invención puede generar el efecto descrito en lo anterior sin los procesos.
La figura 17A es un diagrama de flujo que muestra un método de decodificación de imagen de acuerdo con la presente invención.
El método de decodificación de imagen de acuerdo con la presente invención es un método de decodificación de imagen para decodificar una corriente codificada que incluye una pluralidad de unidades de procesamiento y un encabezador con respecto a las unidades de procesamiento, la corriente codificada es generada por codificación de una película. Aquí, por lo menos una de las unidades de procesamiento es estratificada de manera que la unidad de procesamiento se divide en una pluralidad de unidades de procesamiento más pequeñas. En el método de decodificación de imagen, en primer lugar mediante análisis de la información de profundidad de jerarquía almacenada en el encabezador, se especifica una capa jerárquica en la cual la unidad de procesamiento almacena un parámetro necesario para que exista decodificación (etapa S101) . Después, mediante el .uso del parámetro almacenado en la unidad de procesamiento localizada en la capa jerárquica especificada, se decodifica la unidad de procesamiento, (etapa S102) .
Al realizar los procesos de las etapas S101 y S102, es posible obtener el mismo efecto que el que se obtiene de la modalidad 1. Los otros procesos no son esenciales para la presente invención. Además, el aparato de decodificación de imagen de acuerdo con la presente invención puede obtener el mismo efecto que el que se obtiene de la modalidad 1 al incluir un elemento constitutivo el cual realiza cada uno de los procesos de la etapa S101 y la etapa S102. Los otros elementos constitutivos no son esenciales para la presente invención. Debe hacerse notar en el aparato 2000 de decodificación de imagen de acuerdo con la modalidad 1, la unidad 2200 de control de decodificación realiza el proceso de la etapa S101 y la unidad 2100 de procesamiento de decodificación realiza el proceso de la etapa S102.
Además, los procesos tales como la etapa S804 en la figura 14 se incluyen en el método de codificación de imagen de acuerdo con la modalidad 1 y su modificación. No obstante, la presente invención puede generar el efecto descrito en lo anterior sin los procesos.
La figura 17B es un diagrama de flujo que muestra un método de codificación de imagen de acuerdo con la presente invención.
El método de decodificación de imagen de acuerdo con la presente invención es un método de decodificación de imagen para generar, mediante codificación de una película, una corriente codificada que incluye una pluralidad de unidades de procesamiento y un encabezador con respecto a las unidades de procesamiento. Aquí, por lo menos una de las unidades de procesamiento está estratificada de manera que la unidad de procesamiento se divide en una pluralidad de unidades de procesamiento más pequeñas . En el método de codificación de imagen, se codifica primero una película (etapa Slll) . Después se escribe en el encabezador la información de profundidad de jerarquía para especificar la capa jerárquica que tiene una unidad de procesamiento en la cual un parámetro necesario para decodificaciones almacenado (etapa S112) . Además, el parámetro se escribe en la unidad de procesamiento que se localiza en la capa jerárquica especificada por la información de profundidad de jerarquía (etapa S113) .
Al realizar los procesos de las etapa Slll y S113, es posible obtener el mismo efecto que el que se obtiene de la modalidad 1. Los otros procesos no son necesarios para la presente invención. Además, el aparato de decodificación de imagen de acuerdo con la presente invención puede obtener el mismo efecto que el que se obtiene de la modalidad 1 al incluir una unidad de procesamiento la cual realiza cada uno de los procesos de la etapa Slll a la etapa S113. Los otros elementos constitutivos no son esenciales para la presente invención. Debe hacerse notar que en el aparato 1000 de codificación de imagen de acuerdo con la modalidad 1, la unidad 1104 de codificación de entropía realiza los procesos de las etapas Slll a S1113 en base en el control de la unidad 1200 de control de codificación.
Debe hacerse notar que en la figura 18A a la figura 18C se muestra la sintaxis del encabezador en relación a la presente invención. La sintaxis de las unidades . de procesamiento relacionadas con la presente invención (CU, PU y TU) se muestra desde la figura 19A a la figura 19C.
La figura 18A es un diagrama que muestra la sintaxis del encabezador de secuencia. En el encabezador de secuencia, por ejemplo el número de marcos de referencia máximos . a los que se puede hacer referencia (max_num_ref_frames) y el tamaño de la imagen (pic_width_in_luma_samples , pic_height_in_luraa_samples) son los que se definen.
La figura 18B es un diagrama que muestra la sintaxis del encabezado de imagen. En el encabezado de imagen, como se muestra en la parte di de la sintaxis, el número de índices de referencia que se van a retener para cada dirección de referencia (dirección hacia delante y dirección en reversa) queda definido y se define una QP inicial (número obtenido al restar 26 de la QP inicial) .
La figura 18C es un diagrama que muestra la sintaxis de un encabezador de rebanada. El encabezador de
i rebanada, como se muestra en la parte d2 de la sintaxis, está configurado de manera que el número de los ' índices de referencia descritos en lo anterior que se van a retener se puede reescribir para cada rebanada. Además, el encabezador de rebanada, como se muestra en otra parte d3 de la sintaxis, define el valor de diferencia QP de QP inicial el cual se define por el encabezador de imagen descrito en lo anterior.
La figura 19A es un diagrama que muestra la sintaxis de CU. En CU, como se muestra en las partes d4 y d5 de la sintaxis, se definen PU y TU con respecto a CU.
La figura 19B es un diagrama que muestra la sintaxis de PU. Como se muestra en las partes d6 y d8 de la sintaxis, PU tiene un índice de referencia para cada dirección de diferencia y tiene, como se muestra en otras partes d7 y d9 de la sintaxis, un indicador de conmutación de resolución de vector de movimiento (mvres, por sus siglas en inglés) adaptable para cada dirección de referencia.
La figura 19C es un diagrama que muestra la sintaxis de TU. TU tiene, como se muestra en la parte dio de la sintaxis, coeficientes (coeficientes de transformada) en los cuales la transformada ortogonal y la cuantificación se realizan en la imagen de diferencia.
MODALIDAD 2
El procesamiento descrito en cada una de las modalidades se puede implementar simplemente en un sistema de computadora independiente, al grabar, en un medio de grabación, un programa para implementar las configuraciones del método de codificación de película (método de codificación de imagen) y el método de decodificación de película (método de decodificación de imagen) descrito en cada una de las modalidades. El medio de grabación puede ser cualquier medio de grabación en al medida en que se grabe un programa, tal como un disco magnético, un disco óptico, un disco magnetoóptico, una tarjeta IC y una memoria semiconductora .
En lo siguiente se describirán las aplicaciones del método de codificación de película (método de codificación de imagen) y el método de decodificación de película (método de decodificación de imagen) descritos en cada una de las modalidades y sistemas que utilizan los mismos.
La figura 20 ilustra una configuración general de un sistema exlOO de suministro de contenido para implementar servicios de distribución de contenido. El área para el suministro de servicios de comunicación está divido en células de tamaño deseado y las estaciones de base exl06. exl07, exl08, exl09 y exllO, las cuales son estaciones inalámbricas fijas se colocan en cada una de las células.
El sistema exlOO de suministro de contenido se conecta a los dispositivos, tal como una computadora exlll, un asistente digital personal (PDA, por sus siglas en inglés) exll2, una cámara exll3, un teléfono exll4 celular y una máquina exll5 de juegos vía la internet exlOl, un proveedor exl02 de servicio de internet, una red exl04 de telefonía así como las estaciones de base exl06 a exllO, respectivamente.
No obstante, la configuración del sistema exlOO de suministro de contenido no se limita a la configuración que se muestra en la figura 20 y es aceptable una combinación en la cual se conecta a cualquiera de los elementos. Además, cada dispositivo puede estar conectado directamente a la red exl04 telefónica en vez de vía las estaciones de base exl06 a exllO, las cuales son estaciones inalámbricas fijas. Además, los dispositivos se pueden interconectar entre sí vía una comunicación inalámbrica de distancia corta y otros.
La cámara exll3, tal como la cámara de video digital es capaz de captar video. Una cámara exll6, tal como una cámara digital, es capaz de captar tanto imágenes fijas como video. Además, el teléfono exll4 celular puede ser uno que satisfaga cualquiera de los estándares tales como el de sistema global para comunicaciones móviles (GSM) (marca registrada) , el acceso múltiple de división de código (CDMA, por sus siglas en inglés) , el acceso múltiple de división de códigos de banda ancha (W-CDMA, por sus siglas en inglés) , la evolución a largo plazo (LTE, por sus siglas en inglés) , y el acceso de paquete de alta velocidad (HSPA, por sus siglas en inglés) . De manera alternativa, el teléfono celular exll4 puede ser un teléfono portátil de sistema personal (PHS, por sus siglas en inglés) .
En el sistema exlOO que suministra contenido, un servidor exl03 en continua se conecta a la cámara exll3 y otros por medio de una red exl04 de teléfono y la estación exl09 de base la cual habilita la distribución de imágenes de un programa en vivo y otros. En esta distribución, un contenido (por ejemplo, video de un programa de música en vivo) captado por el usuario utilizando la cámara exll3 es codificado como se describe en lo anterior en cada una de las modalidades (es decir, la cámara funciona como un aparato de codificación de imagen de acuerdo con un aspecto de la presente invención) , y el contenido codificado es transmitido a un servidor exl03 en continua. Por otra parte, el servidor exl03 en continua lleva a cabo la distribución de corriente de los datos de contenido transmitidos a los clientes según lo requieran. Los clientes incluyen la computadora exlll, la PDA exll2, la cámara exll3, el teléfono exll4 celular y la máquina exll5 de juegos que son capaces de decodificar los datos codificados mencionados antes. Cada uno de los dispositivos que ha recibido los datos distribuidos decofica y reproduce los datos codificados (es decir, funciones como el aparato de decodificación de imagen de acuerdo con un aspecto de la presente. invención) .
Los datos captados pueden ser codificados por la cámara exll3 o el servidor en continua exl03 que transmite los datos, o los procesos de codificación pueden ser compartidos entre la cámara exll3 y el servidor exl03 en continua. De manera similar, los datos distribuidos pueden ser decodificados por los clientes en el servidor exl03 en continua o los procesos de decodificación pueden ser compartidos entre los clientes y el servidor exl03 en continua. Además, los datos de las imágenes fijas y el video captado no solo por la cámara exll3 sino también por la cámara exllO se puede transmitir al servidor exlQ3 en continua a través de la computadora exlll. Los procesos de codificación se pueden realizar por la cámara exll6, la computadora exlll o el servidor exll3 en continua o pueden ser compartidos entre ellos.
Además, los procesos de codificación y decodificación se pueden realizar por un LSI ex500 incluido generalmente en cada uno de la computadora exlll y los dispositivos. El LSI ex500 se puede configurar de un chip único o una pluralidad de chips . El programa para codificar y decodificar video se puede integrar en algún tipo de un medio de grabación (tal como un CD-ROM, un disco flexible y un disco duro) que sea legible por la computadora exlll y otros y el proceso de codificación y decodificación se puede realizar utilizando el programa. Además, cuando el teléfono exll4 celular está equipado con una cámara, los datos de video obtenidos por la cámara se pueden transmitir. Los datos de video son datos codificados por el LSI ex500 incluido en el teléfono exll4 celular.
Además, el servidor exl03 en continua puede estar constituido de servidores y computadoras y puede descentralizar datos y procesar los datos descentralizados, grabar o distribuir datos.
Como se describe en lo anterior, los clientes pueden recibir y reproducir los datos codificados en el sistema exlOO de suministro de contenido. En otras palabras, los clientes pueden recibir y decodificar información transmitida por el usuario y reproducir los datos decodificados en tiempo real en el sistema exlOO de suministro de contenido de manera que el usuario que no tenga algún derecho particular y equipo puede implementar difusión personal.
Además del ejemplo del sistema exlOO de suministro de contenido, por lo menos uno de aparato de codificación de película (aparato de codificación de imagen) y el aparato de decodificación de película (aparato de decodificación de imagen) descrito en cada una de las modalidades se puede implementar en un sistema ex200 de difusión digital ilustrado en la figura 21. De manera más específica, una estación ex201 de difusión se comunica o transmite, vía las ondas de radio a un satélite ex202 de difusión datos multiplexados obtenidos al multiplexar datos de audio y otros sobre datos de video. Los datos de video son datos codificados por el método de codificación de película descrito en cada una de las modalidades (es decir, datos codificados por el aparato de codificación de imagen de acuerdo con un aspecto de la presente invención) . Ante la recepción de los datos multiplexados, el satélite ex202 de difusión transmite ondas de radio para difusión. Después, una antena ex204 de uso casero con una función de recepción de difusión de satélite recibe las ondas de radio. Después, un dispositivo tal como una televisión (receptor) ex300 y una caja de decodificación (STB, por sus siglas en inglés) ex217 decodifica los datos multiplexados recibidos y reproduce los datos decodificados (es decir, funciona como el aparato de decodificación de imagen de acuerdo con un aspecto de la presente invención) .
Además, un lector/grabador ex218: (i) lee y decodifica los datos multiplexados grabados en un medio de grabación ex215 tal como un DVD y una BD, o (ii) codifica señales de video en el medio ex215 de grabación y en algunos casos escribe datos obtenidos por multiplexado de una señal de audio sobre los datos codificados. El lector/grabador ex218 puede incluir el aparato de decodificación de película o el aparato de codificación de película, como se muestra en cada una de las modalidades. En este caso, las señales de video reproducidas se muestran en el monitor ex219 y se pueden reproducir por otro dispositivo o sistema utilizando el medio ex215 de grabación sobre el cual se graban los datos multiplexados. También es posible implementar el aparato de decodificación de película en la caja decodificadora ex217 conectada al cable ex203 para una televisión por cable o a la antena ex204 para difusión por satélite y/o terrestre, de manera que muestre las señales de video sobre el monitor ex219 de la televisión ex300. El aparato de aparato de decodificación de película se puede implementar no en la caja decodificadora sino en la televisión ex300.
La figura 22 ilustra la televisión (receptor) ex300 que utiliza el método de codificación de película y el método de decodificación de película descrito en cada una de las modalidades. La televisión ex300 incluye: un sintonizador ex301 que obtiene o proporciona datos multiplexados obtenidos por multiplexado de datos de audio sobre datos de video, a través de la antena ex204 o el cable ex203, etc. que recibe una difusión; una unidad ex302 de modulación/desmodulación que demodula los datos multiplexados recibidos o modula datos en datos multiplexados para ser suministrados al exterior; la unidad ex303 de multiplexado/demultiplexado que demultiplexa los datos multiplexados modulados en datos de video y datos de audio, o multiplexa datos de video y datos de audio codificados por la unidad ex306 de procesamiento de señal en datos .
La televisión ex300 incluye además: una unidad ex306 de procesamiento de señal que incluye una unidad ex304 de procesamiento de señal de audio y una unidad ex305 de procesamiento de señal de video que decodifica datos de audio y datos de video y codifica datos de audio y datos de video, respectivamente (la cual funciona como un aparato de codificación de imagen y el aparato de decodificación de imagen de acuerdo con los aspectos de la presente invención) y una unidad ex309 de salida que incluye un altavoz ex307 que proporciona la señal de audio decodificada y una unidad ex308 de visualización que muestra la señal de video decodificada, tal como una pantalla. Además, la televisión ex300 incluye una unidad ex317 de interconexión que incluye una unidad ex312 de entrada de operación que recibe una entrada de una operación de usuario. Además, la televisión ex300 incluye una unidad ex310 de control que controla la totalidad de cada elemento constitutivo de la televisión ex300 y una unidad ex311 de circuito de suministro de energía que suministra energía a cada uno de los elementos . Además de la unidad ex312 de entrada de operación, la unidad ex317 de interconexión puede incluir: un puente ex313 que se conecta a un dispositivo externo, tal como un lector/grabador ex218; una unidad ex314 de ranura para habilitar la unión del medio ex216 de grabación tal como una tarjeta SE>; una unidad ex315 para ser conectada a un medio de grabación externo, tal como un disco duro; y un modem ex316 para ser conectados a una red de teléfono. Aquí, el medio de grabación ex216 puede grabar eléctricamente información utilizando un elemento de memoria semiconductora no volátil/volátil para almacenamiento. Los elementos constitutivos de la televisión ex3Q0 se conectan entre si a través de un enlace común sincronizado.
En primer lugar, la configuración en la cual la televisión se acopla ex300 decodifica datos multiplexados obtenidos del exterior a través de la antena ex204 y otros, y reproduce los datos decodificados será lo que se describa. En la televisión ex300, cuando una operación de usuario a través de un controlador ex220 remoto y otros, la unidad ex303 de multiplexado/demultiplexado demultiplexa los datos multiplexados demodulados por la unidad ex302 de modulación/desmodulación, bajo el control de la unidad ex310 de control que incluye una CPU. Además, la unidad ex304 de procesamiento de señal de audio decodifica los datos de audio demultiplexados y la unidad ex305 de procesamiento de señal de video decodifica los datos de video demultiplexados, utilizando el método de decodificación descrito en cada una de las modalidades en la televisión ex300. La unidad ex309 de salida proporciona la señal de video decodificada y la señal de audio hacia el exterior, respectivamente. Cuando la unidad ex309 de salida proporciona la señal de video y la señal de audio, las señales pueden ser almacenadas temporalmente en memorias intermedias ex318 y ex319 y otras de manera que las señales sean reproducidas en sincronización entre sí. Además, la televisión ex300 puede leer datos multiplexados no a través de una difusión y otros sino desde el medio de grabación ex215 y ex2l6, tal como un disco magnético, un disco óptico y una tarjeta SD. A continuación, se describirá una configuración en la cual la televisión ex300 codifica una señal de audio y una señal de video y transmite los datos al exterior o escribe los datos en un medio de grabación. En la televisión ex300, ante una operación de usuario a través del controlador ex220 remoto y otros, la unidad ex304 de procesamiento de señal de audio codifica una señal de audio y la unidad ex305 de procesamiento de señal de video codifica una señal de video, bajo el control de la unidad ex310 de control utilizando el método de codificación descrito en cada una de las modalidades. La unidad ex303 de multiplexado/demultiplexado multiplexa la señal de video codificada y la señal de audio y proporciona la señal resultante al exterior. Cuando la unidad ex303 de multiplexado/demultiplexado multiplexa la señal de video y la señal de audio, las señales pueden ser almacenadas temporalmente en las memorias intermedias ex320 y ex321 y otras de manera que las señales sean reproducidas en sincronización entre si. Aquí, las memorias intermedias ex318, ex319, ex320 y ex321 pueden ser una pluralidad, como se ilustra o por lo menos una memoria intermedia puede ser compartida en la televisión ex300. Además, los datos pueden ser almacenados en una memoria intermedia de manera que se pueda evitar el sobreflujo y flujo insuficiente del sistema entre la unidad ex302 de modulación/desmodulación y la unidad ex303 de multiplexado/demultiplexado, por ejemplo.
Además, la televisión ex300 puede incluir una configuración para recibir una entrada de AV desde un micrófono o una cámara diferente a la configuración para obtener datos de audio y video de un medio de difusión o un medio de grabación y puede codificar los datos obtenidos. Aunque la televisión ex300 puede codificar, multiplexar y proporcionar datos de salida en la descripción, puede ser capaz de solo recibir, decodificar y proporcionar datos al exterior pero no la codificación, multiplexado y suministro de datos al exterior.
Además, cuando el lector/grabador ex218 lee o escribe datos multiplexados desde o sobre un medio de grabación, uno de la televisión ex300 del lector/grabador ex218 puede decodificar o codificar los datos multiplexados y la televisión ex300 y el lector/grabador ex218 pueden compartir la decodificación o codificación.
Como un ejemplo, la figura 23 ilustra una configuración de una unidad ex400 de reproducción/grabación de información cuando los datos son leídos o escritos desde o sobre un disco óptico. La unidad ex400 de reproducción/grabación de información incluye elementos constitutivos ex401, ex402, ex403, ex404, ex405, ex406 y ex407 para ser descritos en lo siguiente. La cabeza ex401 óptica irradia un punto láser en una superficie de grabación del medio ex215 de grabación que es un disco óptico para escribir información y detecta la luz reflejada desde la superficie de grabación del medio ex2l5 de grabación para leer la información. La unidad ex402 de grabación de modulación impulsa eléctricamente un láser semiconductor incluido en la cabeza 401 óptica y modula la luz láser de acuerdo con los datos grabados. La unidad ex403 de desmodulación de reproducción amplifica una señal de reproducción obtenida al detectar eléctricamente la luz reflejada desde la superficie de grabación utilizando un fotodetector incluido en la cabeza ex401 óptica, y demodula la señal de producción al separar un componente de señal de grabado sobre el medio ex215 de grabación para reproducir la información necesaria. La memoria ex404 retiene temporalmente la información que se va a grabar en el medio ex215 de grabación y la información reproducida del medio ex215 de grabación. El motor ex405 de disco hace girar al medio ex215 de grabación. La unidad ex406 de servocontrol mueve la cabeza 401 óptica a una pista de información predeterminada mientras que controla a la unidad de rotación del motor ex405 de disco de manera que sigue el punto láser. La unidad ex407 de control de sistema controla la totalidad de la unidad ex400 de reproducción/grabación de información. El proceso de lectura y escritura se puede implementar por la unidad ex407 de control de sistema utilizando diversa información almacenada en el búfer ex404 y al generar y agregar información nueva según se requiera, y mediante la unidad ex402 de grabación de modulación, la unidad ex 03 de desmodulación de reproducción y la unidad ex406 de servocontrol que graban y reproducen información a través de la cabeza ex401 óptica mientras son operados de una manera coordinada. La unidad ex407 de control de sistema incluye, por ejemplo, un microprocesador y ejecuta el procesamiento al provocar que una computadora ejecute un programa para leer o escribir.
Aunque la cabeza ex401 óptica irradia un punto láser en la descripción, puede realizar una grabación de alta densidad utilizando luz de campo cercano.
La figura 24 ilustra el medio ex215 de grabación que es el disco óptico. Sobre la superficie de grabación del medip ex215 de grabación se forman espiralmente surcos guía y una pista ex230 de información graba, por adelantado, información de dirección indicando una posición absoluta en el disco de acuerdo con el cambio en la forma de los surcos de guía. La información de dirección incluye información para determinar posiciones de bloques ex231 de grabación que son una unidad para datos de grabación. La reproducción de la pista ex230 de información y la lectura de la información de dirección en un aparato que graba y reproduce datos puede llevar a la determinación de las posiciones de los bloques de grabación. Además, el medio ex215 de grabación incluye un área ex233 de grabación de datos, un área ex232 de circunferencia interior y un área ex234 de circunferencia exterior. Los datos que registran el área ex233 es un área para uso en la grabación de datos de usuario. El área ex232 de circunferencia interior y el área ex234 de circunferencia exterior que están dentro y fuera del área ex233 de grabación d datos, respectivamente son para uso específico excepto para la grabación de datos de usuario. La unidad 400 de reproducción/grabación de información lee y escribe audio codificado, datos de video codificados o datos multiplexados obtenidos al multiplexar los datos de audio y de video codificados, a partir y sobre el área de grabación de datos ex233 del medio ex215 de grabación.
Aunque se describe como un ejemplo en la descripción un disco óptico que tiene una capa, tal como un DVD y un BD, el disco óptico no se limita a esto si puede ser un disco óptico que tenga una estructura de capas múltiples y que sea capaz de ser grabado sobre una parte diferente a la superficie. Además, el disco óptico puede tener una estructura multidimensional de grabación/reproducción, tal como la grabación de información utilizando luces de colores con longitudes de onda diferentes en la misma porción del disco óptico y para grabar información que tiene diferentes capas desde diversos ángulos .
Además, un vehículo ex210 que tiene una antena ex205 puede recibir datos desde un satélite ex202 y otros, y reproducir video en un dispositivo de visualización tal como el sistema ex211 de navegación del vehículo colocado en el vehículo ex210, en el sistema ex200 de difusión digital. Aquí, la configuración del sistema ex211 de navegación del vehículo será una configuración, por ejemplo, que incluye una unidad receptora de GPS a partir de la configuración que se ilustra en la figura 22. Lo mismo será cierto para la configuración de la computadora exlll, el teléfono exll4 celular y otros.
La figura 25A ilustra el teléfono exll4 celular que utiliza el método de codificación de película y el método de decodificación de película descrito en las modalidades. El teléfono exll4 celular incluye: una antena ex350 para transmitir y recibir ondas de radio a través de la estación exllO de base, una unidad ex365 de cámara capaz de captar imágenes en movimiento y fijas; y una unidad ex358 de visualización tal como una pantalla de cristal líquido para mostrar los datos tales como video decodificado capturado por la unidad ex365 de cámara o recibido por la antena ex350. El teléfono exll4 celular incluye además: una unidad de cuerpo principal que incluye una unidad ex366 clave de operación; una unidad ex357 de salida de audio tal como un altavoz para la salida de audio; una unidad 356 de entrada de audio tal como un micrófono para introducción de audio, una unidad ex367 de memoria para almacenar video o imágenes fijas capturadas, audio grabado, datos codificados o decodificados del video recibido, imágenes fijas, correos electrónicos u otros; y una unidad ex364 de ranura que está en una unidad de interconexión para un medio de grabación que almacena datos de la misma manera que la unidad ex367 de memoria.
A continuación se describirá un ejemplo de una configuración del teléfono exll4 celular, con referencia a la figura 25B. En el teléfono exll4 celular una unidad ex360 de control principal diseñada para control de la totalidad de cada unidad del cuerpo principal incluye a la unidad ex358 de visualización así como la unidad ex366 de botón de operación se conectan mutuamente, por medio de un enlace común ex370 sincronizado, a una unidad ex361 de circuito de suministro de energía, una unidad ex362 de control de entrada de operación, una unidad ex355 de procesamiento de señal de video, una unidad ex363 de interconexión de cámara, una unidad ex359 de control de pantalla de cristal líquido (LCD, por sus siglas en inglés) , una unidad ex352 de modulación/desmodulación, una unidad ex353 de multiplexado/demultiplexado, una unidad ex354 de procesamiento de señal de audio, la unidad ex364 de ranura y la unidad ex367 de memoria.
Cuando el botón de finalizar llamada o un botón de energía cambia a ENCENDIDO por la operación de un usuario, la unidad ex361 de circuito de suministro de energía suministra las unidades respectivas con energía desde un paquete de batería que activa al teléfono exll4 celular.
En el teléfono exll4 celular, la unidad ex354 de procesamiento de señal de audio convierte las señales de audio recolectadas ppr la unidad ex356 de entrada de audio en modo de conversación de voz dentro de las señales de audio digitales bajo el control de la unidad ex360 de control principal que incluye una CPU, ROM y una RAM. Después, la unidad ex352 de modulación/desmodulación realiza procesamiento de espectro de dispersión sobre las señales de audio digitales y la unidad ex351 transmisora y receptora realiza la conversión digital a analógica y la conversión de frecuencia sobre los datos de manera que transmite los datos resultantes vía la antena ex350. Además, en el teléfono exll4 celular, la unidad ex351 de transmisión y recepción amplifica los datos recibidos por la antena ex350 en el modo de conversación de voz y realiza conversión de frecuencia y la conversión analógica a digital sobre los datos. Después, la unidad ex352 de modulación/desmodulación realiza el procesamiento de espectro de dispersión inverso sobre los datos y la unidad ex354 de procesamiento de señal de audio los convierte en señales de audio analógicas de manera que los transmite vía la unidad ex357 de salida de audio.
Además, cuando se transmite un correo electrónico en el modo de comunicación de datos, los datos de texto del correo electrónico introducidos al operar la unidad ex366 de botones de operación y otros del cuerpo principal es enviado a la unidad ex360 de control principal por medio de la unidad ex362 de control de entrada de operación. La unidad ex360 de control principal provoca que la unidad ex352 de modulación/desmodulación realice procesamiento de espectro dispersado sobre los datos de texto y la unidad ex351 transmisora y receptora realiza la conversión digital a analógica y la conversión de frecuencia sobre los datos resultantes para transmitir los datos a la estación exllO de base por medio de la antena ex350. Cuando se recibe un correo electrónico, el procesamiento que es aproximadamente inverso al procesamiento para transmitir un correo electrónico es el que se realiza sobre los datos recibidos y los datos resultantes se proporcionan a la unidad ex358 de visualización .
Cuando el video, las imágenes fijas o video y audio en el modo de comunicación de datos es o son transmitidos, la unidad ex355 de procesamiento de señal de video comprende y codifica señales de video suministradas desde la unidad ex365 de cámara utilizando el método de codificación de película mostrado en cada una de las modalidades (es decir, funciona como el aparato de codificación de imagen de acuerdo con el aspecto de la presente invención) , y transmite los datos de video codificados a la unidad ex353 de multiplexado/demultiplexado. En contraste, durante el tiempo en que la unidad ex365 la cámara captura video, imágenes fijas y otras, la unidad ex354 de procesamiento de señal de audio codifica señales de audio recolectadas por la unidad ex356 de entrada de audio y transmite los datos de audio codificados a la unidad ex353 de multiplexado/demultiplexado.
La unidad ex353 de multiplexado/demultiplexado multiplexa los datos de video codificados suministrados desde la unidad ex355 de procesamiento de señal de video y los datos de audio codificados suministrados a partir de la unidad ex354 de procesamiento de señal de audio, utilizando un método predeterminado. Después, la unidad ex352 de modulación/desmodulación (unidad de circuito de modulación/desmodulación) realiza el procesamiento de espectro de dispersión sobre los datos multiplexados y la unidad ex351 transmisora y receptora realiza conversión digital a análoga y conversión de frecuencia sobre los datos de manera que transmite los datos resultantes vía la antena ex350.
Cuando se reciben datos de un archivo de video el cual está unido a una página de la red y otros en el modo de comunicación de datos o cuando se recibe un correo electrónico con video y/o audio o unido, con el fin de decodificar los datos multiplexados recibidos vía la antena ex350, la unidad ex353 de multiplexado/demultiplexado demultiplexa los datos multiplexados en una corriente de bitios de datos de video y una corriente de bitios de datos de audio, y suministra la unidad ex355 de procesamiento de señal de video con los datos de video codificados y la unidad ex354 de procesamiento de señal de audio con los datos de audio codificados, a través del enlace común ex370 sincronizado. La unidad ex355 de procesamiento de señal de video decodifica la señal de video utilizando un método de decodificación de película que corresponde al método de codificación de película mostrado en cada una de las modalidades (por ejemplo, funciona como el aparato de decodificación de imagen de acuerdo con el aspecto de la presente invención) y después la unidad ex358 de visualización muestra, por ejemplo, el video y las imágenes fijas incluidas en el archivo de video relacionado con la página de la red por medio de la unidad ex359 de control de LCD. Además, la unidad ex354 de procesamiento de señal de audio decodifica la señal de audio y la unidad ex357 de salida de audio proporciona el audio.
Adicionalmente, de modo similar a la televisión ex300, una terminal tal como el teléfono exll4 celular probablemente tenga 3 tipos de configuración y su implementación que incluyen no solo: (i) una terminal transmisora y receptora que incluye tanto un aparato de codificación como un aparato de decodificación sino también (ii) una terminal transmisora que incluye únicamente un aparato de codificación, y (iii) una terminal receptora que incluye únicamente un aparato de decodificación. Aunque el sistema ex200 de difusión digital recibe y transmite los datos multiplexados obtenidos al multiplexar datos de audio y otros datos de video en la descripción, los datos multiplexados pueden ser datos obtenidos al multiplexar no solo datos de audio sino datos de carácter relacionados con el video sobre datos de video y pueden ser datos no multiplexados sino datos de video en sí mismos.
De esta manera, el método de codificación de película y el método de decodificación de película en cada una de las modalidades se puede utilizar en cualquiera de los dispositivos y sistemas descritos. De esta manera, se pueden obtener las ventajas obtenidas en cada una de las modalidades .
Además, la presente invención no se limita a las modalidades y son posibles diversas modificaciones y revisiones sin apartarse del alcance de la presente invención.
MODALIDAD 3
Se pueden generar datos de video por conmutación, según se requiera, entre: (i) el método de codificación de película o el aparato de codificación de película mostrado en cada una de las modalidades, y (ii) un método de codificación de película o un aparato de codificación de película de conformidad con un estándar diferente tal como MPEG-2, MPEG-4 AVC y VC-1.
Aquí, cuando una pluralidad de datos de video que se conforman a los diferentes estándares es generado y después decodificado, los métodos de decodificación necesitan ser seleccionados para conformarse a los diferentes estándares. No obstante, puesto que no se pueden detectar con cuáles estándares se conforma cada una de la pluralidad de datos de video que van a ser decodificados , existe el problema de que no se puede seleccionar el método de decodificación apropiado.
Con el fin de resolver el problema, los datos multiplexados obtenidos al multiplexar datos de audio y otros sobre datos de video tienen una estructura que incluye información de identificación que indica a cuál estándar se conforma los datos de video. La estructura específica de los datos multiplexados que incluyen datos de video generados en el método de codificación de película y por el aparato de codificación de película mostrado en cada una de las modalidades se describirá en lo siguiente. Los datos multiplexados es una corriente digital en el formato de corriente de transporte MPEG-2.
La figura 26 ilustra una estructura de los datos multiplexados. Como se ilustra en la figura 26, los datos multiplexados se pueden obtener al multiplexar por lo menos una de una corriente de video, una corriente de audio y una corriente de gráficos de presentación (PG, por sus siglas en inglés), y una corriente de gráficos interactivos. La corriente de video representa video primario y video secundario de una película, la corriente de audio (IG, por sus siglas en inglés) representa una parte de audio primario y una parte de audio secundario que se van a mezclar con la parte de audio primario y la corriente de gráficos de presentación representa subtítulos de la película. Aquí, el video primario es video normal que se va a mostrar en una pantalla y el video secundario es video que se muestra en una ventana más pequeña en el video primario. Además, la corriente de gráficos interactiva representa una pantalla interactiva que se genera al colocar los componentes GUI en una pantalla. La corriente de video es codificada en el método de codificación de película o por el aparato de codificación de película que se muestra en cada una de las modalidades, o en un método de codificación de película o por un aparato de codificación de película en conformidad con un estándar convencional, tal como MPEG-2, MPEG-4, AVC y VC-1. La corriente de audio es codificada de acuerdo con un estándar tal como Dolby- C-3, Dolby Digital Plus, MLP, DTS, DTS-HD y PCM lineal.
Cada corriente incluida en los datos multiplexados se identifica por PID. Por ejemplo, se asigna 0x1011 a la corriente de video que se va a utilizar para el video de una película se asignan 0x1100 a OxlllF a las corrientes de audio, se asignan 0x1200 a 0xl21F a las corrientes de gráficos de presentación, se asignan 0x1400 a 0xl41F a las corrientes de gráficos de interactivos, se asignan xlBlF a OxlBlF a las corrientes de video que van a ser utilizadas para el video secundario de la película y se asignan OxlAOO a OxlAlF a las corrientes de audio que van a ser utilizadas para el audio secundario que se va a mezclar con el audio primario .
La figura 27 ilustra esquemáticamente como se multiplexan los datos. En primer lugar, una corriente ex235 de video constituida de marcos de video y una corriente ex238 de audio constituida de marcos de audio se transforman en una corriente de paquetes ex236 PES y una corriente de paquetes ex239 PES y adicionalmente en paquetes ex237 TS y paquetes ex240 TS, respectivamente. De manera similar, los datos de una corriente ex241 de gráficos de presentación y los datos de una corriente ex244 de gráficos interactivos se transforman en una corriente de paquetes ex242 PES y una corriente de paquetes ex245 PES, y adicionalmente en paquetes ex243 TS y paquetes ex246 TS, respectivamente. Estos paquetes TS se multiplexan en una corriente para obtener datos ex247 multiplexados .
La figura 28 ilustra de qué manera una corriente de video es almacenada en una corriente de paquetes PES con mayor detalle. La primera barra en la figura 28 muestra una corriente de marco de video en una corriente de video. La segunda barra muestra la corriente de paquetes PES. Como se indica por las flechas indicadas como yyl, yy2, yy3 e yy4 en la figura 28, la corriente de video se divide en imágenes como imágenes I, imágenes B e imágenes P, cada una de las cuales es una unidad de presentación de video y las imágenes se almacenan en una información útil de cada uno de los paquetes PES. Cada uno de los paquetes PES tiene un encabezador PES y el encabezador PES almacena una marca de tiempo de presentación (PTS, por sus siglas en inglés) indicando un tiempo de exhibición de la imagen y una marca de tiempo de decodificación (DTS, por sus siglas en inglés) indicando un tiempo de decodificación de la imagen.
La figura 29 ilustra un formato de paquetes TS que serán escritos finalmente sobre los datos multiplexados . Cada uno de los paquetes TS es un paquete con una longitud fija de 188 octetos que incluye un encabezador TS de cuatro octetos que tiene información tal como una PID para identificar una corriente y una información útil TS de 184 octetos para almacenar datos . Los paquetes PES se dividen y almacenan en las informaciones útil TS, respectivamente. Cuando se utiliza BD ROM, cada uno de los paquetes TS se le proporciona un TP_Extra_Header (encabezador adicional TP) de 4 octetos, lo que resulta en paquetes fuente de 192 octetos. Los paquetes fuente se escriben sobre datos multiplexados. El TP_Extra_Header almacena información tal como Arrival_Time_Stamp (marca de tiempo de llegada (ATS, por sus siglas en inglés) ) . La ATS muestra un tiempo de inicio de transferencia en el cual cada uno de los paquetes TS va a ser transferido a un filtro PID. Los paquetes de fuente se distribuyen en los datos multiplexados como se muestra en la parte inferior de la figura 29. Los números que se incrementan desde la cabeza de los datos multiplexados se les denomina números de paquete de fuente (los SPN, por sus siglas en inglés) .
Cada uno de los paquetes TS incluido en los datos multiplexados incluyen no solo las corrientes de audio, video, subtítulos y otros sino también una Tabla de asociación de programa (PAT, por sus siglas en inglés) , una Tabla de mapa de programa (PMT, por sus siglas en inglés) y una referencia de reloj de programa (PCR, por sus siglas en inglés) . El PAT muestra que una PID en una PMT utilizada en los datos multiplexados indicados y una PID de la PAT en sí misma se registra como cero. La PMT almacena los PID de las corrientes de video, audio, subtítulos y otros incluidos en los datos multiplexados y atribuye información de las corrientes correspondientes a las PID. La PMT también incluye varios descriptores en relación a datos multiplexados. Los escritores tienen información tal como información de control de copia que muestra si se permite o no el copiado de los datos multiplexados. La PCR almacena información de tiempo STC que corresponde a un ATS que muestra en qué momento el paquete PCR es transferido a un decodificador, con el fin de obtener sincronización entre el reloj de tiempo de llegada (ATC, por sus siglas en inglés) que es un eje de tiempo de los ATS y un reloj de tiempo de sistema (STC, por sus siglas en inglés) que es un eje de tiempo de los PTS y DTS.
La figura 30 ilustra la estructura de datos de la PMT con detalle. Se coloca un encabezador PMT en la parte superior de la PMT. El encabezador PMT describe la longitud de datos incluidos en la PMT y otros. Una pluralidad de descriptores en relación a los datos multiplexados se coloca después del encabezador de PMT. La información tal como la información de control de copia se describe en los descriptores . Después de los descriptores se coloca una pluralidad de piezas de información de corriente en relación a las corrientes incluidas en los datos multiplexados. Cada pieza de información de corriente incluye descriptores de corriente que describen cada uno información tal como el tipo de corriente para identificar un codee de compresión de una corriente, una PID de corriente e información de atributo de corriente (tal como velocidad de marcos o proporción dimensional) . Los descriptores de corriente son de igual número al número de corriente en los datos multiplexados.
Cuando los datos multiplexados se graban en un medio de grabación y otros, se graban junto con los archivos de información de datos multiplexados.
Cada uno de los archivos de información de datos multiplexados es información de manejo de los datos multiplexados como se muestra en la figura 31. Los archivos de información de datos multiplexados están en una correspondencia uno a uno con los datos multiplexados, y cada uno de los archivos incluye información de datos multiplexados, información de tributo de corriente y un mapa de entrada.
Como se ilustra en la figura 31, la información de datos multiplexados incluye una velocidad de sistema, un tiempo de inicio de reproducción y un tiempo de finalización de reproducción. La velocidad de sistema indica la velocidad máxima de transferencia a la cual el decodificador objetivo del sistema que va a describir posteriormente transfiere los datos multiplexados a un filtro PID. Los intervalos de los ATS incluidos en los datos multiplexados se establecen para que no sean mayores que la velocidad de sistema. El tiempo de inicio de reproducción indica un PTS en un marco de video y el encabezado de los datos multiplexados. Un intervalo de un marco se agrega a un PTS en un marco de video al final de los datos multiplexados y el PTS se establece como el tiempo de finalización de reproducción.
Como se muestra en la figura 32, una pieza de información de atributo se registra en la información de atributo de corriente, para cada PID de cada corriente incluida en los datos multiplexados. Cada pieza de información de atributos tiene información diferente dependiendo de si la corriente correspondiente es una corriente de video, una corriente de audio, una corriente de gráficos de presentación o una corriente de gráficos interactivos. Cada pieza de la información de atributo de corriente de video transporta información que incluye cual clase de codee de compresión se utiliza para comprimir la corriente de video y la resolución, la proporción dimensional y la velocidad de marco de las piezas de datos de imagen que se incluyen en la corriente de video. Cada pieza de la información de atributo de corriente de audio transporta información que incluye que clase de codee de compresión se utiliza para comprimir la corriente de audio, cuántos canales incluyen a la corriente de audio, cuál idioma soporta la corriente de audio y qué tan alta es la frecuencia de muestreo. La información de atributos de corriente de video y la información de atributos de corriente de audio se utilizan para inicialización de un decodificador antes de que un reproductor reproduzca la información.
En la presente modalidad, los datos multiplexados que van a ser utilizados son de un tipo de corriente incluida en la PMT. Además, cuando los datos multiplexados se graban en un medio de grabación, se utiliza la información de atributo de corriente de video incluida en la información de datos multiplexados. De manera más especifica, el método de codificación de película o el aparato de codificación de película descrito en cada una de las modalidades incluye una etapa o una unidad para asignar información única que indica datos de video generados por el método de codificación de película o el aparato de codificación de película en cada una de las modalidades, con el tipo de corriente incluido en la PMT o la información de atributo de corriente de video. Con la configuración, los datos de video generados por el método de codificación de película o el aparato de codificación de película descrito en cada una de las modalidades se puede distinguir de los datos de video que se conforman a otro estándar .
Además, la figura 33 ilustra etapas del método de decodificación de película de acuerdo con la presente modalidad. En la etapa exSlOO, se obtiene a partir de los datos multiplexados el tipo de corriente incluida en la PMT o la información de atributo de corriente de video incluida en la información de datos multiplexados. Después, en la etapa exSlOl se determina si el tipo de corriente o la información de atributo de corriente de video indican o no que los datos multiplexados son generados por el método de codificación de película o el aparato de codificación de película en cada una de las modalidades . Cuando se determina que el tipo de corriente o la información de atributo de corriente de video indica que los datos multiplexados se generan por el método de codificación de película o el aparato de codificación de película en cada una de las modalidades, en la etapa exS102, se realiza la decodificación por el método de decodificación de película en cada una de las modalidades. Además, cuando el tipo de corriente o la información de atributo de corriente de video indica conformidad con los estándares convencionales tales como MPEG- 2, MPEG-4 AVC y VC-1, en la etapa exS103, se realiza la decodificación por un método de decodificación de película de conformidad con los estándares convencionales.
De esta manera, la asignación de un valor único nuevo al tipo de corriente o a la información de atributo de corriente de video habilita la determinación si el método de decodificación de película o el aparato de decodificación de película que se describe en cada una de las modalidades puede o no realizar la decodificación. Incluso cuando los datos multiplexados que se conforman a un estándar diferente se introducen, se puede seleccionar un método de decodificación o aparato apropiado. De esta manera, se vuelve posible decodificar información sin error alguno. Además, el método o aparato de codificación de película o el método o aparato de decodificación de película en la presente modalidad se puede utilizar en los dispositivos y sistemas descritos en lo anterior .
MODALIDAD 4
Cada uno del método de codificación de película, el aparato de codificación de película, el método de decodificación de película y el aparato de decodificación de película en cada una de las modalidades típicamente se obtiene en forma de un circuito integrado o un circuito integrado a gran escala (LSI, por sus siglas en inglés) . Como un ejemplo de LSI, la figura 34 ilustra una configuración del LSI ex500 que está constituido de un chip. El LSI ex500 incluye los elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508 y ex509 que se describirán más adelante y los elementos están conectados entre sí a través de uri enlace común ex510. La unidad ex505 de circuito de suministro de energía se activa al suministrar cada uno de los elementos con energía cuando la unidad ex505 de circuito de suministro de energía se enciende.
Por ejemplo, cuando se realiza la codificación, el LSI ex500 recibe una señal AV desde un micrófono exll7, una cámara exll3 y otros a través de un 10 ex509 de AV bajo el control de una unidad ex501 de control que incluye una CPU ex502, un controlador ex503 de memoria, un controlador ex504 de corriente y una unidad ex512 de control de frecuencia de activación. La señal de AV recibida se almacena temporalmente en una memoria ex511 externa tal como una SDRAM. Bajo el control de la unidad ex501 de control, los datos almacenados se segmentan en porciones de datos de acuerdo con la cantidad de procesamiento de velocidad que se va a transmitir a la unidad ex507 de procesamiento de señal. Después, la unidad ex507 de procesamiento de señal codifica una señal de audio y/o una señal de video. Aquí, la codificación de la señal de video es la codificación descrita en cada una de las modalidades. Además, la unidad ex507 de procesamiento de señal algunas veces multiplexa los datos de audio codificados y los datos de video codificados y una corriente 10 ex506 proporciona al exterior los datos multiplexados . Los datos multiplexados proporcionados se transmiten a la estación de base exl07 o se escriben en el medio ex215 de grabación. Cuando los conjuntos de datos son multiplexados, los datos temporalmente se almacenan en el búfer ex508 de manera que los conjuntos de datos se sincronizan entre sí.
Aunque la memoria ex511 es un elemento fuera del
LSI ex500, puede ser incluido en el LSI ex500. El búfer ex508 no se limita a una memoria intermedia sino que puede estar constituida de varias memorias intermedias. Además, el LSI ex500 puede estar constituido en un chip o una pluralidad de chips.
Además, aunque la unidad ex501 de control incluye la CPU ex502, el controlador ex503 de memoria, el controlador ex5Q4 de corriente, la unidad ex512 de control de frecuencia de activación, la configuración de la unidad ex5Ql de control no se limitan a tales. Por ejemplo, la unidad ex507 de procesamiento de señal puede incluir adicionalmente una CPU. La inclusión de otra CPU en la unidad ex5Q7 de procesamiento de señal puede mejorar la velocidad de procesamiento. Además, como otro ejemplo, la CPU ex502 puede servir como o ser parte de la unidad ex507 de procesamiento de señal y, por ejemplo, puede incluir una unidad de procesamiento de señal de audio . En tal caso, la unidad ex501 de control incluye la unidad ex507 de procesamiento de señal o la CPU ex502 que incluye una parte de la unidad ex507 de procesamiento de señal.
El nombre utilizado aquí es LSI pero también se puede denominar IC, sistema LSI, super LSI o ultra LSI dependiendo del grado de integración.
Además, las maneras de obtener la integración no se limitan a LSI y un, circuito especial o un procesador de propósito general, y así sucesivamente también pueden obtener la integración. Un arreglo de compuerta programable de campo (FPGA, por sus siglas en inglés) que se puede programar después de manufacturar los LSI o un procesador reconfigurable que permite la reconfiguración de la conexión o la configuración de un LSI se puede utilizar con el mismo propósito .
En el futuro, con el avance de la tecnología de los semiconductores, una tecnología completamente nueva puede sustituir a los LSI. Los bloques funcionales se pueden integrar utilizando esta tecnología. La posibilidad es que la presente invención se aplique a biotecnología.
MODALIDAD 5
Cuando los datos de video generados en el método de codificación de película o en el aparato de codificación de película descritos en cada modalidad se decodifican, en comparación a cuando los datos de video que conforman un estándar convencional tal como MPEG-2, MPEG-4 AVC y VC-1 se decodifican, la cantidad de procesamiento probablemente se incremente. Por lo tanto, el LSI ex500 necesita establecerse a una presencia de activación mayor que la de la CPU ex502 para ser utilizado cuando se decodifican datos de video de conformidad con el estándar convencional. No obstante, cuando la frecuencia de activación se establece más alta, existe el problema de que se incremente el consumo de energía.
Con el fin de resolver el problema, el aparato de decodificación de película tal como la televisión ex300 y el LSI ex500 se configuran para determinar a cuál de los estándares de video se conforman y conmutan entre las frecuencias de activación de acuerdo con el estándar determinado. La figura 35 ilustra una configuración ex800 en la presente modalidad. Una frecuencia de activación de la unidad de conmutación ex803 establece una frecuencia de conmutación a una frecuencia de activación mayor cuando los datos de video se generan por el método de codificación de película o el aparato de codificación de película descrito en cada una de las modalidades. Después, la unidad ex803 de conmutación de frecuencia de activación instruye a la unidad ex801 de procesamiento de decodificación que ejecute el método de decodificación de película descrito en cada una de las modalidades para decodificar los datos de video. Cuando los datos de video se conforman al estándar convencional, la unidad ex803 de conmutación de frecuencia de activación establece una frecuencia de activación a una frecuencia de activación menor que la de los datos de video generados por el método de codificación de película o el aparato de codificación de película descrito en cada una de las modalidades. Después, la unidad ex803 de conmutación de frecuencia de activación instruye a la unidad ex802 de procesamiento de decodificación que se conforma al estándar convencional para decodificar los datos de video.
De manera más específica, la unidad ex803 de conmutación de frecuencia de activación incluye la CPU ex502 y la unidad ex512 de control de frecuencia de activación en la figura 34. Aquí, cada una de la unidad ex801 de procesamiento de decodificación que ejecuta el método de decodificación de película descrito en cada una de las modalidades y la unidad ex802 de procesamiento de decodificación que se conforma al estándar convencional corresponden la unidad ex507 de procesamiento de señal en la figura 34. La CPU ex502 determina a cuál estándar se conforman los datos de video. Después, la unidad ex512 de control de frecuencia de activación determina una frecuencia de activación en base en una señal de la CPU ex502. Además, la unidad ex507 de procesamiento de señal decodifica los datos de video en base en la señal de la CPU ex502. Por ejemplo, la información de identificación descrito en la modalidad 3 probablemente se utiliza para identificar los datos de video. La información de identificación no se limita a una descrita en la modalidad 3 sino que puede ser cualquier información en la medida en que la información indique a cuál estándar se conforman los datos de video. Por ejemplo, se puede determinar a cuál estándar se conforman los datos de video en base en una señal externa para determinar que los datos de video se utilizan para una televisión o un disco, etc., la determinación se puede realizar en base en esta señal externa. Además, la CPU ex502 selecciona una frecuencia de activación en base, por ejemplo, en una tabla de búsqueda en la cual los estándares de los datos de video se asocian con las frecuencias de activación, como se muestra en la figura 37. La frecuencia de activación se puede seleccionar al almacenar la tabla de búsqueda en el búfer ex508 y en una memoria interna de un LSI y con referencia a la tabla de búsqueda por la CPU ex502.
La figura 36 ilustra las etapas de ejecutar un método en la presente modalidad. En primer lugar, la etapa exS200, la unidad ex507 de procesamiento de señal obtiene la información de identificación a partir de los datos multiplexados . A continuación, en la etapa exS201, la CPU ex502 determina si los datos de video se generan o no por el método de codificación y el aparato de codificación descrito en cada una de las modalidades, en base en la información de identificación. Cuando los datos de video se generan por el método de codificación de película y el aparato de codificación de película descrito en cada una de las modalidades, en la etapa exS202, la CPU ex502 transmite una señal para establecer la frecuencia de activación a · una frecuencia de activación más alta a la unidad ex512 de control de frecuencia de activación. Después, la unidad ex512 de control de frecuencia de activación establece la frecuencia de activación a una frecuencia de activación mayor. Por otra parte, cuando la información de identificación indica que los datos de video se conforman al estándar convencional tal como MPEG-2, MPEG-4, AVC y VC-1, en la etapa exS203, la CPU ex502 transmite una señal para establecer la frecuencia de activación a una frecuencia de activación menor que la unidad ex512 de control de frecuencia de activación. Después, la unidad ex512 de control de frecuencia de activación establece la frecuencia de activación a una frecuencia de activación menor que en el caso en donde los datos de video se generan por el método de codificación de película y el aparato de codificación de película descrito en cada una de las modalidades.
Adicionalmente, junto con la conmutación de las frecuencias de activación, se puede mejorar el efecto de conservación de energía al cambiar el voltaje que se va a aplicar al LSI ex500 o un aparato que incluye al LSI ex500. Por ejemplo, cuando la frecuencia de activación se establece más baja, el voltaje que se va a aplicar al LSI ex500 o al aparato que incluye al LSI ex500 probablemente se establezca a un voltaje menor que aquel en el caso en donde la frecuencia de activación se establece más alta.
Además, cuando la cantidad de procesamiento para decodificación es más grande, la frecuencia de activación se puede establece más grande y cuando la cantidad de procesamiento para decodificación es menor, la frecuencia de activación se puede establecer más baja como el método para establecer la frecuencia de activación. De esta manera, el método de establecimiento no se limita a los descritos en lo anterior. Por ejemplo, cuando la cantidad de procesamiento para decodificación de datos de video de conformidad con MPEG-4 AVC es más grande que la cantidad de procesamiento para decodificación de datos de video generados por el método de codificación de película y el aparato de codificación de película descritos en cada una de las modalidades, la frecuencia de activación probablemente se establezca en orden inverso al ajuste descrito en lo anterior.
Además, el método para establecer la frecuencia de activación no se limita al método para establecer una frecuencia de activación menor. Por ejemplo, cuando la información de identificación indica que los datos de video se generan por el método de codificación de película y el aparato de codificación de película descrito en cada una de las modalidades, el voltaje que se va a aplicar al LSI ex500 o el aparato que incluye al LSI ex500 probablemente se establezca más alto. Cuando la información de identificación indica que los datos de video se conforman al estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, el voltaje que se va a aplicar al LSI ex500 o al aparato que incluye el LSI ex500 probablemente se establezca más bajo. Como otro ejemplo, cuando la información de identificación indica que los datos de video se generan por el método de codificación de película y el aparato de codificación de película descrito en cada una de las modalidades, la activación de la CPU ex502 probablemente no tenga que ser suspendida. Cuando la información de identificación indica que los datos de video se conforman al estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, la activación de la CPU ex502 probablemente se suspenda en un momento debido a que la CPU ex502 tiene capacidad de procesamiento adicional . Incluso cuando la información de identificación indica que los datos de video se generan por el método de codificación de película y el aparato de codificación de película descrito en cada una de las modalidades, en el caso en donde la CPU ex502 tenga capacidad de procesamiento adicional, la activación de la CPU ex502 probablemente se suspenda en un momento dado. En tal caso, el tiempo de suspensión probablemente se establezca más corto que en el caso en donde cuando la información de identificación indica que los datos de video se conforman al estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1.
En consecuencia, se puede mejorar el efecto de conservación de energía al conmutar entre las secuencias de activación de acuerdo con el estándar al cual se conforman los datos de video. Además, cuando el LSI ex500 o el aparato que incluye al LSI ex500 es activado utilizando una batería, se puede prolongar la duración de la batería con el efecto de conservación de energía.
MODALIDAD 6
Existen casos en donde una pluralidad de datos de video que se conforman a diferentes estándares se proporcionan a los dispositivos y sistemas, tal como una televisión y un teléfono celular. Con el fin de habilitar la decodificación de la pluralidad de datos de video que se conforman a estándares diferentes, la unidad ex507 de procesamiento de señal del LSI ex500 necesita conformarse a los diferentes estándares. No obstante, los problemas de incremento en la escala del circuito del LSI ex500 e incremento en costoso surgen con el uso individual de las unidades ex507 de procesamiento de señal que se conforman a los estándares respectivos .
Con el fin de resolver el problema, lo que se ha considerado es una configuración en la cual la unidad de procesamiento de decodificación para implementar el método de decodificación de película descrito en cada una de las modalidades y la unidad de procesamiento de decodificación que se conforman al estándar convencional tal como MPEG-2, MPEG-4 AVC y VC-1 se comparten parcialmente. En la figura 38A, ex900 muestra un ejemplo de la configuración. Por ejemplo, el método de decodificación de película descrito en cada una de las modalidades y el método de decodificación de película que se conforma a MPEG-4 AVC, tienen, parcialmente en común, los detalles de procesamiento tales como codificación de entropía, cuantificación inversa, filtrado de desbloqueo y predicción compensada de movimiento. Los detalles del procesamiento que se va a compartir probablemente incluyen el uso de una unidad ex902 de procesamiento de decodificación que se adapta a MPEG-4 AVC. En contraste, una unidad ex901 de procesamiento de decodificación dedicada probablemente se utilice para otro procesamiento único a un aspecto de la presente invención. La unidad de procesamiento de decodificación para implementar el método de decodificación de película descrito en cada una de las modalidades se puede compartir para el procesamiento que se va a compartir y se puede utilizar un procesamiento de decodificación dedicado para procesamiento único a ese MPEG-4 AVC.
Además, en la figura 38B exlOOO muestra otro ejemplo en donde este procesamiento es compartido parcialmente. Este ejemplo utiliza una configuración que incluye una unidad exlOOl de procesamiento de decodificación dedicado que soporta el procesamiento único para un aspecto de la presente invención, una unidad exl002 de procesamiento de decodificación dedicado que soporta al procesamiento único para otro estándar convencional y una unidad exlOQ3 de procesamiento de decodificación que soporta el procesamiento que se va a compartir entre el método de decodificación de película de acuerdo con el aspecto de la presente invención y el método de decodificación de película convencional. Aquí, las unidades de procesamiento de decodificación dedicadas exlOOl y exlQ02 no necesariamente están especializadas para el procesamiento de acuerdo con el aspecto de la presente invención y el procesamiento del estándar convencional, respectivamente y pueden ser capaces de implementar procesamiento general. Además, la configuración de la presente modalidad se puede implementar por el LSI ex500.
De esta manera, una reducción en la escala del circuito de un LSI y una reducción de costos son posibles al compartir de la unidad de procesamiento de decodificación para el procesamiento que se va a compartir entre el método de decodificación de película de acuerdo con. el aspecto de la presente invención y el método de decodificación de película de conformidad con el estándar convencional.
APLICABILIDAD INDUSTRIAL
El método de decodificación de imagen y el método de codificación de imagen de acuerdo con la presente invención obtienen un efecto de mejora tanto en la calidad de imagen como en la eficiencia de codificación y se pueden aplicar una cámara de video, un teléfono móvil que tenga funciones de captación de películas y reproducción de películas, una computadora personal o un aparato de grabación y reproducción.
LISTA DE NUMEROS DE REFERENCIA
1000 Aparato de codificación de imagen
1100 Unidad de procesamiento de codificación
1101 Sustractor
1102 Unidad de transformada ortogonal
1103 Unidad de cuantificación
1104 Unidad de codificación de entropía
1105 Unidad de cuantificación inversa
1106 Unidad de transformada ortogonal inversa
1107 Adicionador
1108 Filtro de desbloqueo
1109 Memoria
1110 Unidad de intrapredicción
1111 Unidad de compensación de movimiento
1112 Unidad de cálculo de movimiento
1113 Conmutador
1200 Unidad de control de codificación
2000 Aparato de decodificación de imagen 2100 Unidad de procesamiento de codificación
2101 Unidad de decodificación de entropía
2102 Unidad de cuantificación inversa
2103 Unidad de transformada ortogonal inversa
2104 Adicionador
2105 Filtro de desbloqueo
2106 Memoria
2107 Unidad de intrapredicción
2108 Unidad de compensación de movimiento
2109 Conmutador
2200 Unidad de control de decodificación Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.
Claims (1)
1 . Un circuito integrado caracterizado porque codifica para una película utilizando el método de codificación de imagen de conformidad con cualquiera de las reivindicaciones 5 a 8.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US38822110P | 2010-09-30 | 2010-09-30 | |
| PCT/JP2011/005507 WO2012042890A1 (ja) | 2010-09-30 | 2011-09-29 | 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラムおよび集積回路 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| MX2013001774A true MX2013001774A (es) | 2013-03-18 |
Family
ID=45892379
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| MX2013001774A MX2013001774A (es) | 2010-09-30 | 2011-09-29 | Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato codificacion de imagen, programa, y circuito integrado. |
Country Status (14)
| Country | Link |
|---|---|
| US (9) | US9749630B2 (es) |
| EP (3) | EP2624560B1 (es) |
| JP (6) | JP5894922B2 (es) |
| KR (2) | KR101959091B1 (es) |
| CN (2) | CN103125117B (es) |
| AU (1) | AU2011310239B2 (es) |
| BR (1) | BR112013004112A2 (es) |
| CA (1) | CA2808795C (es) |
| MX (1) | MX2013001774A (es) |
| RU (1) | RU2595625C2 (es) |
| SG (1) | SG188255A1 (es) |
| TW (2) | TWI625054B (es) |
| WO (1) | WO2012042890A1 (es) |
| ZA (1) | ZA201301335B (es) |
Families Citing this family (31)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110274162A1 (en) | 2010-05-04 | 2011-11-10 | Minhua Zhou | Coding Unit Quantization Parameters in Video Coding |
| US20130058410A1 (en) * | 2010-05-13 | 2013-03-07 | Sharp Kabushiki Kaisha | Encoding device, decoding device, and data structure |
| KR20120016980A (ko) | 2010-08-17 | 2012-02-27 | 한국전자통신연구원 | 영상 부호화 방법 및 장치, 그리고 복호화 방법 및 장치 |
| JP5707412B2 (ja) | 2010-09-29 | 2015-04-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラムおよび集積回路 |
| BR112013004112A2 (pt) * | 2010-09-30 | 2016-06-28 | Panasonic Corp | método de decodificação de imagem, método de codificação de imagem, aparelho de decodificação de imagem, aparelho de codificação de imagem, programa, e circuito integrado |
| KR20120035096A (ko) * | 2010-10-04 | 2012-04-13 | 한국전자통신연구원 | 쿼드 트리 변환 구조에서 부가 정보의 시그널링 방법 및 장치 |
| US20120114034A1 (en) * | 2010-11-08 | 2012-05-10 | Mediatek Inc. | Method and Apparatus of Delta Quantization Parameter Processing for High Efficiency Video Coding |
| WO2012096181A1 (en) * | 2011-01-13 | 2012-07-19 | Canon Kabushiki Kaisha | Image coding apparatus, image coding method, and program, and image decoding apparatus, image decoding method, and program |
| KR101442127B1 (ko) * | 2011-06-21 | 2014-09-25 | 인텔렉추얼디스커버리 주식회사 | 쿼드트리 구조 기반의 적응적 양자화 파라미터 부호화 및 복호화 방법 및 장치 |
| EP2713612A4 (en) * | 2011-06-28 | 2014-11-26 | Samsung Electronics Co Ltd | PROCESS AND DEVICE FOR IMAGE CODING AND DECODING USING ADAPTIVE QUANTIZATION PARAMETER DIFFERENTIALS |
| JP2013223036A (ja) * | 2012-04-13 | 2013-10-28 | Canon Inc | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
| US9521410B2 (en) * | 2012-04-26 | 2016-12-13 | Qualcomm Incorporated | Quantization parameter (QP) coding in video coding |
| GB2501517A (en) * | 2012-04-27 | 2013-10-30 | Canon Kk | Scalable Encoding and Decoding of a Digital Image |
| US9749645B2 (en) | 2012-06-22 | 2017-08-29 | Microsoft Technology Licensing, Llc | Coded-block-flag coding and derivation |
| KR20170075802A (ko) * | 2012-06-26 | 2017-07-03 | 미쓰비시덴키 가부시키가이샤 | 동화상 부호화·복호 장치 및 방법 |
| US20140056347A1 (en) | 2012-08-23 | 2014-02-27 | Microsoft Corporation | Non-Transform Coding |
| BR112015013768A2 (pt) | 2012-12-18 | 2017-07-11 | Sony Corp | dispositivo, e, método de processamento de imagem |
| CN104079941B (zh) | 2013-03-27 | 2017-08-25 | 中兴通讯股份有限公司 | 一种深度信息编解码方法、装置及视频处理播放设备 |
| US9294766B2 (en) | 2013-09-09 | 2016-03-22 | Apple Inc. | Chroma quantization in video coding |
| CN105519120B (zh) * | 2014-06-20 | 2019-03-22 | 寰发股份有限公司 | 用于视频数据的三维或多视图视频编码的分区模式编码方法 |
| WO2015196334A1 (en) * | 2014-06-23 | 2015-12-30 | Mediatek Singapore Pte. Ltd. | Methods for signaling of sub-pu syntax element in multi-view and 3d video coding |
| US10218957B2 (en) | 2014-06-20 | 2019-02-26 | Hfi Innovation Inc. | Method of sub-PU syntax signaling and illumination compensation for 3D and multi-view video coding |
| CN116883521A (zh) * | 2015-12-14 | 2023-10-13 | 松下电器(美国)知识产权公司 | 三维数据编码方法、解码方法、编码装置、解码装置 |
| KR102447511B1 (ko) * | 2016-10-11 | 2022-09-26 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치 |
| KR20250004939A (ko) * | 2017-09-06 | 2025-01-08 | 삼성전자주식회사 | 효과적인 차분양자화 파라미터 전송 기반 영상 부/복호화 방법 및 장치 |
| JP7033013B2 (ja) * | 2018-06-15 | 2022-03-09 | キヤノン株式会社 | 画像符号化装置、画像復号装置、及び、それらの制御方法、並びに、プログラム |
| CN109819264B (zh) | 2018-12-28 | 2020-05-12 | 杭州海康威视数字技术股份有限公司 | 编码方法、解码方法及装置 |
| KR20200107868A (ko) | 2019-03-06 | 2020-09-16 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
| US11570439B2 (en) * | 2019-05-15 | 2023-01-31 | Hyundai Motor Company | Inverse quantization device and method used in video decoding device |
| US12118120B2 (en) | 2021-05-17 | 2024-10-15 | Bank Of America Corporation | Prevention of unauthorized access to information |
| US11934554B2 (en) | 2021-05-17 | 2024-03-19 | Bank Of America Corporation | Information security by preventing unauthorized data access |
Family Cites Families (54)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5122875A (en) | 1991-02-27 | 1992-06-16 | General Electric Company | An HDTV compression system |
| JP3732867B2 (ja) * | 1995-03-09 | 2006-01-11 | 株式会社ルネサステクノロジ | 画像伸張装置 |
| US5949911A (en) * | 1997-05-16 | 1999-09-07 | Teralogic, Inc. | System and method for scalable coding of sparse data sets |
| DE69815159T2 (de) | 1998-03-20 | 2004-04-08 | Stmicroelectronics Asia Pacific Pte Ltd. | Kodierung von bewegten bildern mit globaler konstanter bitrate |
| US6041143A (en) * | 1998-04-14 | 2000-03-21 | Teralogic Incorporated | Multiresolution compressed image management system and method |
| US7406299B1 (en) | 1999-10-15 | 2008-07-29 | Nortel Networks Limited | Wireless communications method, system and terminal therefor utilising a plurality of simultaneous, data bearing, communications links for conveying data between a plurality of base stations and a terminal |
| CN1897702A (zh) | 2002-01-18 | 2007-01-17 | 株式会社东芝 | 视频编码方法和装置以及视频解码方法和装置 |
| JP2004007563A (ja) | 2002-04-19 | 2004-01-08 | Matsushita Electric Ind Co Ltd | 動画像符号化方法および動画像復号化方法 |
| FI115589B (fi) | 2003-10-14 | 2005-05-31 | Nokia Corp | Redundanttien kuvien koodaaminen ja dekoodaaminen |
| WO2006028088A1 (ja) | 2004-09-08 | 2006-03-16 | Matsushita Electric Industrial Co., Ltd. | 動画像符号化方法および動画像復号化方法 |
| US8340172B2 (en) * | 2004-11-29 | 2012-12-25 | Qualcomm Incorporated | Rate control techniques for video encoding using parametric equations |
| US8823821B2 (en) | 2004-12-17 | 2014-09-02 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for processing multiview videos for view synthesis using motion vector predictor list |
| JP4146444B2 (ja) | 2005-03-16 | 2008-09-10 | 株式会社東芝 | 動画像符号化の方法及び装置 |
| KR101222606B1 (ko) * | 2005-03-30 | 2013-01-16 | 노키아 지멘스 네트웍스 게엠베하 운트 코. 카게 | Tv 전송들을 저장 및 재생하기 위한 방법 및 장치 |
| WO2007018670A1 (en) | 2005-07-21 | 2007-02-15 | Thomson Licensing | Method and apparatus for weighted prediction for scalable video coding |
| KR20070038396A (ko) | 2005-10-05 | 2007-04-10 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
| WO2007040344A1 (en) | 2005-10-05 | 2007-04-12 | Lg Electronics Inc. | Methods and apparatuses for constructing a residual data stream and methods and apparatuses for reconstructing image blocks |
| TW200746655A (en) | 2005-11-18 | 2007-12-16 | Sony Corp | Encoding device and method, decoding device and method, and transmission system |
| CN101120584B (zh) * | 2005-11-18 | 2011-04-20 | 索尼株式会社 | 编码装置和方法、解码装置和方法、以及传输系统 |
| EP1841230A1 (en) * | 2006-03-27 | 2007-10-03 | Matsushita Electric Industrial Co., Ltd. | Adaptive wiener filter for video coding |
| WO2007111292A1 (ja) | 2006-03-27 | 2007-10-04 | Matsushita Electric Industrial Co., Ltd. | 画像符号化装置および画像復号化装置 |
| DE602007014060D1 (de) | 2006-08-25 | 2011-06-01 | Thomson Licensing | Verfahren und vorrichtung für partitionierung mit reduzierter auflösung |
| EP3107295A1 (en) | 2007-03-20 | 2016-12-21 | Fujitsu Limited | Video encoding method and apparatus, and video decoding apparatus |
| DE102007014329A1 (de) | 2007-03-26 | 2008-10-02 | Robert Bosch Gmbh | Verfahren zum Erfassen einer elektrischen Potentialdifferenz an einer piezoelektrischen Aktoreinheit und Schaltungsanordnung zur Durchführung des Verfahrens |
| RU2009135396A (ru) * | 2007-04-16 | 2011-04-10 | Кабусики Кайся Тосиба (Jp) | Способ и устройство кодирования и декодирования видеосигнала |
| US8406299B2 (en) | 2007-04-17 | 2013-03-26 | Qualcomm Incorporated | Directional transforms for intra-coding |
| RU2340144C1 (ru) | 2007-06-26 | 2008-12-10 | Олег Иванович Квасенков | Способ предпосевной обработки семян |
| US20090076828A1 (en) | 2007-08-27 | 2009-03-19 | Texas Instruments Incorporated | System and method of data encoding |
| EP2215844A2 (en) | 2007-10-15 | 2010-08-11 | Nokia Corporation | Motion skip and single-loop encoding for multi-view video content |
| EP2051527A1 (en) * | 2007-10-15 | 2009-04-22 | Thomson Licensing | Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs |
| JP2009290498A (ja) * | 2008-05-29 | 2009-12-10 | Renesas Technology Corp | 画像符号化装置及び画像符号化方法 |
| JP4768779B2 (ja) * | 2008-06-02 | 2011-09-07 | 株式会社東芝 | 動画像符号化/復号化の方法及び装置 |
| US8897359B2 (en) * | 2008-06-03 | 2014-11-25 | Microsoft Corporation | Adaptive quantization for enhancement layer video coding |
| KR20090129926A (ko) | 2008-06-13 | 2009-12-17 | 삼성전자주식회사 | 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치 |
| US8325796B2 (en) * | 2008-09-11 | 2012-12-04 | Google Inc. | System and method for video coding using adaptive segmentation |
| WO2010032419A1 (ja) | 2008-09-18 | 2010-03-25 | パナソニック株式会社 | 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法およびプログラム |
| WO2010070818A1 (ja) * | 2008-12-16 | 2010-06-24 | 株式会社日立製作所 | 動画像符号化装置、動画像符号化方法、動画像復号化装置および動画像復号化方法 |
| TWI463878B (zh) | 2009-02-19 | 2014-12-01 | Sony Corp | Image processing apparatus and method |
| CN103561273B (zh) | 2009-03-26 | 2016-10-05 | 松下电器(美国)知识产权公司 | 编码装置及方法、错误检测装置及方法、解码装置及方法 |
| JPWO2011052215A1 (ja) | 2009-10-30 | 2013-03-14 | パナソニック株式会社 | 復号方法、復号装置、符号化方法、および符号化装置 |
| KR20110050283A (ko) | 2009-11-06 | 2011-05-13 | 삼성전자주식회사 | 다중 참조 영상을 이용한 고속 움직임 추정 방법 |
| US20110274162A1 (en) * | 2010-05-04 | 2011-11-10 | Minhua Zhou | Coding Unit Quantization Parameters in Video Coding |
| US20110194613A1 (en) | 2010-02-11 | 2011-08-11 | Qualcomm Incorporated | Video coding with large macroblocks |
| US20110249743A1 (en) | 2010-04-09 | 2011-10-13 | Jie Zhao | Super-block for high performance video coding |
| EP3301648B1 (en) | 2010-04-13 | 2020-01-08 | GE Video Compression, LLC | Inheritance in sample array multitree subdivision |
| MX2012011846A (es) | 2010-04-13 | 2012-11-30 | Samsung Electronics Co Ltd | Metodo de codificacion de video y aparato de codificacion de video que utilizan unidades de prediccion basadas en unidades de codificacion determinadas de acuerdo con una estructura de arbol, y metodo de decodificacion de video y aparato de decodificacion de video que utilizan unidades de prediccion basadas en unidades de codificacion determinadas con una estructura de arbol. |
| US20130058410A1 (en) | 2010-05-13 | 2013-03-07 | Sharp Kabushiki Kaisha | Encoding device, decoding device, and data structure |
| HUE047906T2 (hu) | 2010-06-04 | 2020-05-28 | Sony Corp | QP és delta QP kódolása egy minimális méretnél nagyobb képblokkoknál |
| US20110317757A1 (en) * | 2010-06-25 | 2011-12-29 | Qualcomm Incorporated | Intra prediction mode signaling for finer spatial prediction directions |
| US20120051431A1 (en) | 2010-08-25 | 2012-03-01 | Qualcomm Incorporated | Motion direction based adaptive motion vector resolution signaling for video coding |
| BR112013004112A2 (pt) * | 2010-09-30 | 2016-06-28 | Panasonic Corp | método de decodificação de imagem, método de codificação de imagem, aparelho de decodificação de imagem, aparelho de codificação de imagem, programa, e circuito integrado |
| US8654860B2 (en) | 2010-11-01 | 2014-02-18 | Mediatek Inc. | Apparatus and method for high efficiency video coding using flexible slice structure |
| JP2013009165A (ja) | 2011-06-24 | 2013-01-10 | Mitsubishi Electric Corp | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 |
| US20140056356A1 (en) | 2012-08-21 | 2014-02-27 | Motorola Mobility Llc | Method and apparatus for efficient signaling of weighted prediction in advanced coding schemes |
-
2011
- 2011-09-29 BR BR112013004112A patent/BR112013004112A2/pt not_active IP Right Cessation
- 2011-09-29 KR KR1020137002254A patent/KR101959091B1/ko active Active
- 2011-09-29 EP EP11828456.1A patent/EP2624560B1/en active Active
- 2011-09-29 WO PCT/JP2011/005507 patent/WO2012042890A1/ja not_active Ceased
- 2011-09-29 SG SG2013012844A patent/SG188255A1/en unknown
- 2011-09-29 MX MX2013001774A patent/MX2013001774A/es active IP Right Grant
- 2011-09-29 TW TW105141247A patent/TWI625054B/zh active
- 2011-09-29 CN CN201180039947.8A patent/CN103125117B/zh active Active
- 2011-09-29 CN CN201610835677.6A patent/CN107071429B/zh active Active
- 2011-09-29 JP JP2012536214A patent/JP5894922B2/ja active Active
- 2011-09-29 TW TW100135258A patent/TWI569628B/zh active
- 2011-09-29 EP EP16188259.2A patent/EP3125562B1/en active Active
- 2011-09-29 EP EP21192324.8A patent/EP3944624A1/en active Pending
- 2011-09-29 CA CA2808795A patent/CA2808795C/en active Active
- 2011-09-29 RU RU2013107607/08A patent/RU2595625C2/ru active
- 2011-09-29 KR KR1020197006808A patent/KR102073304B1/ko active Active
- 2011-09-29 US US13/818,702 patent/US9749630B2/en active Active
- 2011-09-29 AU AU2011310239A patent/AU2011310239B2/en active Active
- 2011-09-29 US US13/818,702 patent/US20130156099A1/en active Granted
-
2013
- 2013-02-20 ZA ZA2013/01335A patent/ZA201301335B/en unknown
-
2016
- 2016-02-29 JP JP2016038411A patent/JP6145952B2/ja active Active
- 2016-08-25 US US15/246,960 patent/US9743087B2/en active Active
-
2017
- 2017-04-28 JP JP2017089927A patent/JP2017153137A/ja active Pending
- 2017-06-27 US US15/633,917 patent/US10038905B2/en active Active
-
2018
- 2018-06-27 US US16/019,705 patent/US10616579B2/en active Active
- 2018-10-17 JP JP2018195940A patent/JP6928847B2/ja active Active
-
2020
- 2020-02-26 US US16/801,228 patent/US11310500B2/en active Active
-
2021
- 2021-05-26 JP JP2021088315A patent/JP7113250B2/ja active Active
-
2022
- 2022-03-09 US US17/690,271 patent/US11729389B2/en active Active
- 2022-05-11 JP JP2022078017A patent/JP7325573B2/ja active Active
-
2023
- 2023-06-26 US US18/213,979 patent/US12309371B2/en active Active
-
2025
- 2025-04-22 US US19/185,419 patent/US20250254309A1/en active Pending
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| MX2013001774A (es) | Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato codificacion de imagen, programa, y circuito integrado. | |
| AU2018201049C1 (en) | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus | |
| AU2012281918C1 (en) | Decoding Method, Coding Method, Decoding Apparatus, Coding Apparatus, And Coding and Decoding Apparatus | |
| AU2012277220B2 (en) | Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus | |
| AU2012294053B2 (en) | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus | |
| AU2012277215B2 (en) | Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus | |
| AU2017201384B2 (en) | Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus | |
| AU2013254214B2 (en) | Encoding method, decoding method, encoding apparatus, decoding apparatus, and encoding and decoding apparatus | |
| AU2012277160B2 (en) | Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device | |
| MX2013013483A (es) | Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes. | |
| EP2665264B1 (en) | Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device | |
| MX2013014752A (es) | Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes. | |
| MX2013010231A (es) | Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento. | |
| MX2013013508A (es) | Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes. | |
| MX2015002891A (es) | Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato de codificacion de imagen y aparato de codificacion y decodificacion de imagen. | |
| MX2013014207A (es) | Metodo de procesamiento de imagenes y aparato de procesamiento de imagenes. | |
| MX2013013909A (es) | Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imágenes. | |
| MX2013001773A (es) | Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen, aparato de decodificacion de imagen, y aparato de codificacion y decodificacion de imagen. | |
| MX2012012443A (es) | Modo de filtrado para intra-prediccion deducida de estadisticas de bloques circundantes. | |
| MX2015002890A (es) | Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes. | |
| MX2013015089A (es) | Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imágenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento. | |
| MX2013013777A (es) | Metodo de codificacion de imagenes, aparato de codificacion de imagenes, metodo de decodificacion de imagenes y aparato de decodificacion de imagenes. | |
| MX2013015086A (es) | Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes. | |
| AU2013264361B2 (en) | Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device | |
| MX2013001652A (es) | Metodo de codificacion de imagen, metodo de decodificacion de imagen, metodo de manejo de memoria, aparato de codificacion de imagen, aparato de decodificacion de imagen, aparato de manejo de memoria, y aparato de codificacion y decodificacion de imagen. |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FG | Grant or registration | ||
| GB | Transfer or rights | ||
| PD | Change of proprietorship |
Owner name: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AME |