[go: up one dir, main page]

MX2013000093A - Metodo de filtro, dispositivo de codificacion de imagen dinamica, dispositivo de decodificacion de imagen dinamica y dispositivo de codificacion y decodificacion de imagen dinamica. - Google Patents

Metodo de filtro, dispositivo de codificacion de imagen dinamica, dispositivo de decodificacion de imagen dinamica y dispositivo de codificacion y decodificacion de imagen dinamica.

Info

Publication number
MX2013000093A
MX2013000093A MX2013000093A MX2013000093A MX2013000093A MX 2013000093 A MX2013000093 A MX 2013000093A MX 2013000093 A MX2013000093 A MX 2013000093A MX 2013000093 A MX2013000093 A MX 2013000093A MX 2013000093 A MX2013000093 A MX 2013000093A
Authority
MX
Mexico
Prior art keywords
block
filtering
ipcm
unit
ipcm block
Prior art date
Application number
MX2013000093A
Other languages
English (en)
Inventor
Takahiro Nishi
Chong Soon Lim
Hisao Sasai
Youji Shibahara
Viktor Wahadaniah
Sue Mon Thet Naing
Toshiyasu Sugio
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=46652730&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=MX2013000093(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Panasonic Corp filed Critical Panasonic Corp
Publication of MX2013000093A publication Critical patent/MX2013000093A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Un método de filtro que realiza el procesamiento de filtro en una pluralidad de bloques contenida en una imagen comprende: las etapas de determinación (S201, S202) que determinan si cada uno de la pluralidad de bloques son bloques IPCM; una etapa de filtro (S204) que realiza el procesamiento de filtro en un bloque entre la pluralidad de bloques que no es un bloque IPCM, es decir un bloque sin-IPCM, y generar los datos filtrados; y las etapas de salida (S204, S205) que dan salida a los datos filtrados como el valor de píxel del bloque sin-IPCM, y que dan salida al valor de píxel del bloque IPCM, que no ha experimentado el procesamiento de filtro, como el valor de píxel del bloque IPCM.

Description

METODO DE FILTRO, DISPOSITIVO DE CODIFICACION DE IMAGEN DINAMICA, DISPOSITIVO DE DECODIFICACION DE IMAGEN DINAMICA Y DISPOSITIVO DE CODIFICACION Y DECODIFICACION DE IMAGEN DINAMICA Campo de la Invención La presente invención se refiere a un método de filtrado, un aparato de codificación de imagen en movimiento, un aparato de decodificación de imagen en movimiento, y a un aparato de codificación y decodificación de imagen en movimiento .
Antecedentes de la Invención Los bloques de Modulación de Código de Intra-Impulso (IPCM, por sus siglas en inglés) son bloques del video no comprimido o muestras de imagen en donde son codificadas las muestras luma y croma en el flujo codificado. Estos bloques son utilizados en el caso cuando la unidad de codificación de entropía produce más bits en lugar de reducir los bits cuando se codifican los bloques de las muestras de imagen. En otras palabras, los valores de píxel de los bloques IPCM no son comprimidos, y de esta manera, son utilizados los valores de píxel sin procesar de la imagen original. El bloque IPCM es introducido en el Estándar de Compresión de Video H.264/AVC.
Cuando son codificados los bloques IPCM en un flujo codificado en el Estándar de Compresión de Video H.264, estos REF. 237202 bloques IPCM son codificados como datos no comprimidos. La no decodificación es realizada para estos bloques. Sin embargo, el procesamiento de decodificación posterior (que incluye el filtrado, tal como el filtrado de desbloqueo) todavía es realizado en los límites de bloque que tienden a ser una causa de deterioro en la calidad de imagen (por ejemplo, véase la Literatura sin Patente (NPL, por sus siglas en inglés) 1) .
Lista de Citas Literatura sin Patente NPL 1 ISO/IEC 14496-10 "MPEG-4 Part 10 Advanced Video Coding" Sumario de la Invención Problema Técnico Sin embargo, en la técnica convencional mencionada con anterioridad, el filtrado también es realizado en el límite de ambos tipos de bloques que son un bloque IPCM y un bloque sin- IPCM. Aquí, un bloque IPCM es un bloque en el cual son utilizados los valores de píxel original. De esta manera, la técnica convencional tiene un problema en el que se deteriora la calidad de imagen de los bloques IPCM cuando el filtrado es realizado.
La presente invención tiene por objetivo proporcionar un método de filtrado que permita la supresión del deterioro en la calidad de imagen de los bloques IPCM.
Solución al Problema Con el propósito de conseguir el objetivo mencionado con anterioridad, un método de filtrado de acuerdo con un aspecto de la presente invención es para el filtrado de una pluralidad de bloques incluida en una imagen, el método de filtrado comprende: determinar si cada uno de los bloques es o no un bloque de Modulación de Código de Intra-Impulso (IPCM) ; filtrar un bloque sin-IPCM que no es el bloque IPCM de los bloques para generar datos filtrados; y dar salida a los datos filtrados como un valor de un píxel en el bloque sin-IPCM, y dar salida, como un valor de un píxel en el bloque IPCM, a un valor no filtrado del píxel en el bloque IPCM.
Con esta estructura, el método de filtrado de acuerdo con una modalidad de la presente invención no involucra el filtrado en un bloque IPCM, y de esta manera, es capaz de suprimir la degradación en la calidad de imagen del bloque IPCM.
En adición, en el filtrado, los datos filtrados del bloque sin-IPCM podrían ser generados realizando el filtrado utilizando, tanto el valor del píxel en el bloque IPCM como el valor del píxel en el bloque sin-IPCM.
En adición, el filtrado podría ser el filtrado de desbloqueo, en el filtrado, los primeros datos filtrados podrían ser generados filtrando un primer bloque sin IPCM de un primer bloque IPCM y un primer bloque sin IPCM que son adyacentes entre sí, y en la salida, los primeros datos filtrados podrían ser salidos como un valor de un píxel en el primer bloque sin IPCM, y un valor no filtrado de píxel en el primer bloque IPCM podría ser salido como un valor del píxel en el primer bloque IPCM.
En adición, en el filtrado, sólo podría ser filtrado el bloque sin-IPCM salido de los bloques, y el bloque IPCM no necesita ser filtrado.
En adición, en el filtrado, los datos filtrados podrían ser generados filtrando todos los bloques, y en la salida, un valor filtrado del píxel en el bloque IPCM en los datos filtrados podría ser reemplazado por el valor no filtrado del píxel en el bloque IPCM.
Además, un método de filtrado de acuerdo con un aspecto de la presente invención es para el filtrado de un límite entre un bloque de Modulación de Código de Intra-Impulso (IPCM) y un bloque sin-IPCM que son adyacentes entre sí en una imagen, el método de filtrado comprende: ajustar una primera intensidad de filtro para el bloque sin-IPCM, y ajustar una segunda intensidad de filtro para el bloque IPCM, la segunda intensidad de filtro es más baja que la primera intensidad de filtro; y filtrar el bloque sin-IPCM utilizando la primera intensidad de filtro, y filtrar el bloque IPCM utilizando la segunda intensidad de filtro.
Con esta estructura, el método de filtrado de acuerdo con una modalidad de la presente invención es capaz de reducir la intensidad del filtrado en el bloque IPCM, y con lo cual, se suprime la degradación en la calidad de imagen del bloque IPCM.
En adición, la segunda intensidad de filtro podría especificar que el filtrado es saltado.
Con esta estructura, el método de filtrado de acuerdo con una modalidad de la presente invención no involucra el filtrado en un bloque IPCM, y de esta manera, es capaz de suprimir la degradación en la calidad de imagen del bloque IPCM.
En adición, la primera intensidad de filtro podría ser más baja que la intensidad de filtro que es determinada cuando el bloque sin-IPCM es un bloque que será intra-codificado.
Se observará que la presente invención puede ser realizada no sólo como un método de filtrado sino también como un aparato de filtrado que incluye unidades que corresponden con las etapas únicas incluidas en el método de filtrado, y como un programa que provoca que una computadora ejecute estas etapas únicas. En forma natural, este programa puede ser distribuido a través de un medio de grabación susceptible de ser leído por computadora no transitorio, tal como un CD-ROM etc., y un medio de comunicación, tal como la Internet .
Además, la presente invención puede ser realizada como un método de codificación de imagen en movimiento y un método de decodificación de imagen en movimiento cada uno incluye este método de filtrado. Además, la presente invención puede ser implementada como un aparato de codificación de imagen en movimiento y un aparato de decodificación de imagen en movimiento cada uno incluye un dispositivo de filtrado, y como un aparato de codificación y decodificación de imagen en movimiento que incluye el aparato de codificación de imagen en movimiento y el aparato de decodificación de imagen en movimiento. Además, la presente invención puede ser implementada como un circuito integrado semiconductor (LSI) que ejerce parte o todas las funciones del dispositivo de filtrado, del aparato de codificación de imagen en movimiento o del aparato de decodificación de imagen en movimiento.
Efectos Ventajosos de la Invención La presente invención proporciona un método de filtrado que permite la supresión del deterioro en la calidad de imagen de los bloques IPCM.
Breve Descripción de las Figuras La Figura 1 es una ilustración de un método de determinación de una intensidad de filtro en un límite de bloque entre un bloque IPCM y un bloque sin-IPCM, en el Estándar H.264.
La Figura 2 es un diagrama de flujo de los procesos de filtrado en un límite de bloque, en el Estándar H.264.
La Figura 3 es un diagrama de flujo de los procesos de determinación de una intensidad de filtro, en el Estándar H.264.
La Figura 4 es una ilustración de una intensidad de filtro en un método de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 5 es un diagrama de flujo de un método de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 6 es un diagrama de bloque de un aparato de codificación de imagen en movimiento de acuerdo con la Modalidad 1 de la presente invención.
La Figura 7A es una ilustración de un ejemplo de un límite de bloque de acuerdo con la Modalidad 1 de la presente invención.
La Figura 7B es una ilustración de un ejemplo de un límite de bloque de acuerdo con la Modalidad 1 de la presente invención .
La Figura 8A es una ilustración de las operaciones realizadas por una unidad de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 8B es una ilustración de las operaciones realizadas por una unidad de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 9 es un diagrama de bloque de un aparato de decodificación de imagen de acuerdo con la Modalidad l de la presente invención.
La Figura 10A es una ilustración de una estructura de ejemplo de las unidades de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 10B es una ilustración de una estructura de ejemplo de una unidad de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 10C es una ilustración de una estructura de ejemplo de las unidades de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 10D es una ilustración de una estructura de ejemplo de una unidad de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 10E es una ilustración de una estructura de ejemplo de las unidades de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 10F es una ilustración de una estructura de ejemplo de las unidades de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 10G es una ilustración de una estructura de ejemplo de las unidades de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 10H es una ilustración de una estructura de ejemplo de una unidad de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 11 es un diagrama de flujo de un método de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 12 es un diagrama de flujo de un método de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 13 es una ilustración de las intensidades de filtro y unidades de bloque de acuerdo con la Modalidad 1 de la presente invención.
La Figura 14A es una ilustración de un rango de aplicación de un aviso que indica que el filtro se encuentra encendido de acuerdo con un ejemplo de comparación en la presente invención.
La Figura 14B es una ilustración de un rango de aplicación de un aviso que indica que el filtro se encuentra encendido de acuerdo con la Modalidad 1 de la presente invención.
La Figura 15 muestra una configuración total de un sistema de suministro de contenido para la implementacion de servicios de distribución de contenido.
La Figura 16 muestra una configuración total de un sistema de radiodifusión digital.
La Figura 17 muestra un diagrama de bloque que ilustra un ejemplo de una configuración de una televisión.
La Figura 18 muestra un diagrama de bloque que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe la información a partir y en un medio de grabación que es un disco óptico.
La Figura 19 muestra un ejemplo de una configuración de un medio de grabación que es un disco óptico.
La Figura 20A muestra un ejemplo de un teléfono celular.
La Figura 20B es un diagrama de bloque que muestra un ejemplo de una configuración de un teléfono celular.
La Figura 21 ilustra una estructura de datos multiplexados .
La Figura 22 muestra, de manera esquemática, como cada flujo es multiplexado en los datos multiplexados.
La Figura 23 muestra como es almacenado un flujo de video en un flujo de paquetes PES en mayor detalle.
La Figura 24 muestra una estructura de paquetes TS y paquetes de origen en los datos multiplexados .
La Figura 25 muestra una estructura de datos de una PMT .
La Figura 26 muestra una estructura interna de la información de datos multiplexados .
La Figura 27 muestra una estructura interna de la información de atributo de flujo.
La Figura 28 muestra las etapas para la identificación de los datos de video.
La Figura 29 muestra un ejemplo de una configuración de un circuito integrado para la implementación del método de codificación de imagen en movimiento y el método de decodificación de imagen en movimiento de acuerdo con cada una de las modalidades.
La Figura 30 muestra una configuración para el cambio entre las frecuencias de excitación.
La Figura 31 muestra las etapas para la identificación de los datos de video y el cambio entre las frecuencias de excitación.
La Figura 32 muestra un ejemplo de una tabla de búsqueda en la cual los estándares de datos de video son asociados con las frecuencias de excitación.
La Figura 33A es un diagrama que muestra un ejemplo de una configuración para el compartimiento de un módulo de una unidad de procesamiento de señal .
La Figura 33B es un diagrama que muestra otro ejemplo de una configuración para el compartimiento de un módulo de la unidad de procesamiento de señal .
Descripción Detallada de la Invención De aquí en adelante, las modalidades de la presente invención son descritas en detalle con referencia a las figuras. Cada una de las modalidades descritas más adelante muestra un ejemplo específico preferido de la presente invención. Los valores numéricos, las formas, los materiales, los elementos estructurales, el arreglo y la conexión de los elementos estructurales, las etapas, el orden de procesamiento de las etapas, etc., mostrados en las siguientes modalidades son simples ejemplos, y por lo tanto, no limitan la presente invención. La presente invención es definida por las reivindicaciones. Por lo tanto, entre los elementos estructurales en las siguientes modalidades, los elementos estructurales no señalados en cualquiera de las reivindicaciones independientes que definen el concepto más genérico de la presente invención no son necesariamente requeridos para conseguir el objetivo de la presente invención. Estos elementos estructurales opcionales son descritos como elementos estructurales de las correspondientes modalidades preferidas .
Antes de proporcionar las descripciones de las modalidades de la presente invención, es dada la descripción del filtrado de inter-píxeles (el filtrado de desbloqueo) en el límite entre un bloque IPCM y un bloque sin-IPC en la codificación y decodificación en el Estándar H.264.
La Figura 1 es un diagrama de flujo que indica un concepto de un método de determinación de una intensidad de filtro de un filtro inter-píxeles en el límite entre un bloque IPCM (macrobloque) y un bloque sin-IPCM (macrobloque) en los esquemas de codificación y decodificación de acuerdo con el Estándar H.264.
La Figura 1 muestra, de manera esquemática, el límite entre los dos macrobloques uno de los cuales es el macrobloque sin-IPCM (el lado izquierdo en la ilustración) y el otro es el macrobloque IPCM (el lado derecho en la ilustración) . Tres círculos situados en el lado izquierdo en la Figura 1 muestran tres píxeles (típicamente, denotados como pO, pl, y p2 en forma secuencial a partir del límite) . Estos tres píxeles de lado izquierdo pertenecen a un primer bloque (bloque p) en una primera unidad (un bloque codificado de unidad, de aquí en adelante, es referido como un bloque CU) . Estos tres píxeles también pertenecen a un primer macrobloque de un tipo sin-IPCM en un bloque de unidad de macrobloque (de aquí en adelante, es referido como un MB) que es una unidad más grande que la primera unidad.
Del mismo modo, tres círculos situados en en el lado derecho en la Figura 1 muestran tres píxeles (típicamente, denotados como qO, ql, y q2 en forma secuencial a partir del límite) . Estos tres píxeles pertenecen a un segundo bloque (un bloque q) en la primera unidad. Estos tres píxeles también pertenecen a un segundo macrobloque de un tipo IPCM en un MB .
De aquí en adelante, un bloque CU que pertenece a un macrobloque de un tipo IPCM es referido como un bloque IPCM, y un bloque CU que pertenece a un macrobloque de un bloque sin-IPCM es referido como un bloque sin-IPCM. En otras palabras, un bloque sin-IPCM significa un bloque que no es un bloque IPCM.
De aquí en adelante, es dada la descripción de un método de determinación de una intensidad de filtro que es aplicado a los píxeles qO, ql, O, y pl a través del límite de bloque (o un límite entre las unidades de bloque más grandes que la unidad de codificación) .
Un método de filtrado en el Estándar H.264 (el método de filtrado descrito en la Cláusula 8.7 del Estándar) define que una intensidad de filtro para un límite entre dos bloques es normalmente determinada en función del valor promedio de un valor qPp derivado de un parámetro de cuantificación QPp de un primer macrobloque y un parámetro de cuantificación QPq de un segundo macrobloque. De manera más específica, es utilizada la siguiente expresión (Expresión 1) mostrada como la expresión 8-461 en el Estándar.
QPav = (QPp + QPq + 1) >> 1 = > (QPp + 1) >> 1 (Expresión 1) Esta expresión (Expresión 1) muestra el siguiente cálculo. Las intensidades de filtros son diseñadas, de manera que un filtro más fuerte (en suavidad) es aplicado a medida que es más grande el valor de un parámetro de cuantificación, con el objetivo, por ejemplo, de absorber un error de cuantificación.
En la ilustración, un parámetro de cuantificación de lado izquierdo QPp es un parámetro de cuantificación que es codificado por el primer macrobloque (bloque de lado-p) . Por conveniencia, QP utilizado aquí es equivalente en significado a un valor qP que es utilizado con el propósito de filtrado. En adición, un parámetro de cuantificación de lado derecho QPq es un parámetro de cuantificación que debe ser aplicado al segundo macrobloque (bloque de lado-q) .
Aquí, como se describe en la Cláusula 8.7.2 del Estándar H.264, el valor del parámetro de cuantificación qPq (QPq en la ilustración) del bloque IPCM es establecido en 0. En otras palabras, "ambos lados filtrados con una intensidad débil" es realizado. Esto significa que, para un límite entre dos bloques, es aplicado un filtro que tiene una intensidad de filtro en ambos de los bloques. Esto también significa que es imposible diferenciar las intensidades de filtro para los respectivos dos bloques. En otras palabras, el filtrado que utiliza la misma intensidad de filtro es ejecutado en ambos de los bloques a través del límite entre un bloque IPCM y un bloque sin-IPCM.
La Figura 2 es un diagrama de flujo que ilustra un concepto de filtrado en un límite de bloque descrito en la Cláusula 8.7 "proceso de filtro de desbloqueo" del estándar H.264.
Este diagrama de flujo explica aproximadamente los siguientes tres puntos con respecto a un filtro H.264. (1) El orden de determinación de la intensidad de filtro (bS) en la Cláusula 8.7.2.1.
La Etapa S101 corresponde con el proceso de "proceso de desviación para el contenido luma dependiente de la intensidad de filtro de límite" descrito en la Cláusula 8.7.2.1. Este proceso determina la intensidad de filtro en el filtrado en un límite de bloque de acuerdo con un tipo de bloque y similares. Aquí, la intensidad de filtro es clasificada en un nivel entre los niveles que fluctúan del filtrado fuerte (bS = 4) a un no filtrado (bS = 0) . Este punto es el que se describe con referencia a la Figura 3. (2) El proceso de ajuste del parámetro de cuantificación qpz = 0 para IPCM Las Etapas S102 a S107 son procesos para el ajuste de un valor de un parámetro de cuantificación qP que determinan la intensidad de filtro como se describe con referencia a la Figura 1. En cuanto los bloques normales sin-IPCM (No en la Etapa S102 o S105) , el parámetro de cuantificación QP ti] (i denota 0 o 1) de un macrobloque al cual pertenece el bloque sin-IPCM es establecido como un parámetro de cuantificación qP [i] que determina la intensidad de filtro (Etapas S103 y S106) . Por otro lado, cuando un bloque actual es un bloque IPCM (Si en S102 o S105) , el parámetro de cuantificación qP del bloque IPCM es establecido en 0 (Etapas S104 y S107) .
A continuación, en la Etapa S108, qPav es calculado de acuerdo con (Expresión 1) . (3) Un bS (o filterSampleFlag) es compartido por ambos bloques .
De aquí en adelante, es dada la descripción de la aplicación de la intensidad determinada de filtro (un valor) (o un aviso de determinación que especifica si realiza o no el filtrado) en común a los dos bloques a través de un límite.
En primer lugar, después de la Etapa S108, es realizado el cálculo que utiliza las expresiones de 8-462 a 8-467 en el Estándar. De manera más específica, es realizada (1) la derivación de un índice para el ajuste ligero de una intensidad de filtro que es establecido en la Etapa S101 y también es realizada (2) la derivación de un valor del umbral para la determinación de borde.
Entonces, la intensidad de filtro determinada a través de estos procesos es ajustada en ambos de los bloques (S109) . De manera más específica, aún cuando la intensidad de filtro bS es cualquiera de 1-4, el valor derivado utilizando el método común de derivación bS es aplicado a los dos bloques. Por ejemplo, cuando la intensidad de filtro bS = 4 es satisfecha, el valor del píxel p del primer bloque es derivado utilizando las Expresiones (8-486 y 8-487) en el Estándar. En adición, el valor del píxel q incluido en el segundo bloque es derivado utilizando la misma intensidad de filtro que la intensidad de filtro utilizada en la derivación del valor del píxel p. Además, la determinación en cuanto a si se realiza el filtrado (la derivación del valor de filterSamplesFlag (también referido como un aviso de ejecución de filtrado)) es realizada en la preparación, por ejemplo, de un caso en donde un límite de bloque es finalmente encontrado que es un borde actual. De manera más específica, esta determinación es tomada comparando entre dos valores de umbral (two_threths (a, (ß)) derivado en la Etapa S109 y los valores actuales de píxel de p y q (véase la Expresión (8-468) en el Estándar) . Sin embargo, como se describió con anterioridad, es imposible ajustar valores diferentes (o la ejecución o no ejecución) como las intensidades de filtro bS o los avisos de ejecución de filtrado para los respectivos dos bloques .
En otras palabras, en el Estándar H.264, es imposible realizar el procesamiento adecuado para IPCM cuando se observe dentro de un proceso de filtrado.
La Figura 3 es un diagrama de flujo que indica el orden de decisión (el orden de determinación) de una intensidad de filtro (bS) que es aplicada a los píxeles localizados a través del límite entre dos macrobloques, como se describe en la Cláusula 8.7.2.1 del Estándar. Este diagrama de flujo ilustra el orden de determinación en la Etapa S101 mostrada en la Figura 2, y se conforma con el flujo de determinación en la Cláusula 8.7.2.1 del Estándar.
En primer lugar, es tomada una determinación en cuanto a si el límite definido por el píxel pO en el primer bloque y el píxel qO en el segundo bloque también corresponde o no con el límite entre macrobloques (S121) . E otras palabras, es tomada una determinación en cuanto a si pO y qO son localizados a través del límite de macrobloque .
Cuando el límite de bloque entre los objetivos de procesamiento no es un límite de macrobloque (No en S121) , la intensidad de filtro (bS) es determinada para que sea cualquiera de 3 , 2, 1, y 0 que es más pequeño que N (= 4) (S124) .
Por otro lado, cuando el límite de bloque entre los objetivos de procesamiento es un límite de macrobloque (Si en S121) , es tomada una determinación en cuanto a si uno (o ambos) de pO y qO pertenece a un macrobloque codificado que utiliza el modo de intra-predicción (S122) .
Cuando ambos de los bloques no pertenecen a un macrobloque codificado que utiliza el modo de intra-predicción (No en S122) , la determinación basada en otro factor e determinación es ejecutada (S125) .
Por otro lado, cuando al menos uno de los bloques pertenece a un macrobloque codificado que utiliza el modo de intra-predicción (Si en S122) , la intensidad de filtro es establecida (siempre) en bS = 4 esto significa la intensidad más alta sin considerar cualquier otro factor de determinación (S123) .
De este modo, el método convencional de filtrado no hace posible la ejecución de los procesos de filtrado interno para estos dos bloques que son localizados a través del límite en diferentes modos (en términos de las intensidades de filtro y la aplicación o no aplicación de un filtro) . En adición, el estándar considera los procesos para la determinación de una intensidad de filtro enfocándose en IPCM, aunque no es posible para realizar el control que da salida a los valores de píxel sin procesar de un bloque IPCM cuando uno de los bloques es un bloque IPCM y el otro es un bloque sin- IPCM .
Un bloque IPCM es un bloque que incluye los valores de píxel que muestran "la imagen original" sin una pérdida de codificación. En consecuencia, en el proceso de filtrado, es deseable controlar el filtrado en el límite con un bloque IPCM o controlar la aplicación de un filtro en el bloque IPCM.
(Modalidad 1) De aquí en adelante, es dada la descripción de un método de filtrado de acuerdo con la Modalidad 1 de la presente invención.
La Figura 4 ilustra un concepto de un método de determinación de un factor para la aplicación del método de filtrado de acuerdo con esta modalidad y la determinación de una intensidad de filtro de un filtro inter-píxeles . Tres círculos en la ilustración muestran los pixeles incluidos en el primer bloque como en la Figura 1. Los mismos elementos que en la Figura 1 entre los elementos restantes no son descritos una vez más .
Un método de filtrado de acuerdo con esta modalidad es para el filtrado de una pluralidad de bloques incluida en una imagen. En forma típica, el método de filtrado es aplicado al filtrado de desbloqueo que es realizado en el límite entre los bloques adyacentes. De aquí en adelante, es dada la descripción de un ejemplo de la aplicación del filtrado de desbloqueo en la presente invención. Sin embargo, la presente invención también es aplicable a un filtrado en circuito (Filtro de Circuito Adaptivo) diferente del filtrado de desbloqueo.
El método de filtrado de acuerdo con esta modalidad es diferente del método de filtrado que se describe con referencia a la Figura 1 en los puntos indicados más adelante .
En primer lugar, los valores no filtrados de píxel son salidos como los valores de píxel de tres píxeles del bloque que es IPCM en el lado derecho en la ilustración.
En adición, es realizado el control para diferenciar el filtrado para el primer bloque y el filtrado para el segundo bloque. Por ejemplo, un filtro es aplicado a uno (en el lado izquierdo) de los bloques a través del límite en la ilustración, y ningún filtro es aplicado en el otro (en el lado derecho) . De este modo, es realizado el control para la realización de los diferentes procesos de filtrado entre los bloques .
A continuación, la intensidad de filtro, para el bloque del lado izquierdo en el cual el filtro es aplicado, es derivada en función sólo del parámetro de cuantificación QPp del bloque del lado izquierdo. En otras palabras, la intensidad de filtro del bloque sin-IPCM en el lado izquierdo es derivada sin la utilización del parámetro de cuantificación QPq del macrobloque de lado derecho o cualquier otro valor fijo substituto (0 en el ejemplo convencional) .
La determinación con respecto a IPCM en H.264 mostrado en la Figura 2 es tomada en cuanto a si un bloque actual es o no un macrobloque IPCM. Aquí, la determinación en cuanto a si un bloque actual es o no un macrobloque IPCM, es tomada en función de la unidad de predicción (PU, por sus siglas en inglés) que tiene un tamaño variable. En otras palabras, un bloque IPCM es un bloque que pertenece a un bloque PU de un tipo IPCM, y un bloque sin-IPCM es un bloque que pertenece a un bloque PU de un tipo sin-IPCM.
De aquí en adelante, estas operaciones son descritas con referencia a las figuras.
La Figura 5 es un diagrama de flujo de un orden de procesamiento en un método de filtrado de acuerdo con esta modalidad.
El método de filtrado de acuerdo con esta modalidad es ejecutado como una parte de los procesos de codificación o los procesos de decodificación. En consecuencia, este método de filtrado es ejecutado por una de una unidad de filtrado en un circuito de codificación dentro de un aparato de codificación de imagen en movimiento mostrado en la Figura 6 que se describe más adelante y una unidad de filtrado en el circuito de decodificación dentro de un aparato de decodif cación de imagen en movimiento mostrado en la Figura 9 que se describe más adelante, y una unidad de control para el control del filtro.
La unidad de control determina si el tipo de bloque PU de uno de los dos bloques que comparte el límite es o no IPCM (S201) . En el caso de ejemplo de la Figura 4, el bloque PU de lado derecho es un bloque IPCM, y de esta manera, uno es determinado que es de un tipo IPCM. De manera más específica, la unidad de control ejecuta esta determinación utilizando un tipo de macrobloque, o un parámetro de atributo de los datos de imagen tal como un tamaño de bloque de compensación de movimiento.
Cuando al menos uno de los dos bloques es un bloque IPCM (Si en S201) , la unidad de control determina si el otro de los dos bloques es o no un bloque IPCM (S202) . Por ejemplo, como en el caso de la ilustración en la Figura 4, el bloque del lado derecho es un bloque IPCM. En consecuencia, la unidad de control determina si el otro bloque que es el bloque del lado izquierdo es o no un bloque IPCM.
En otras palabras, en la Etapas S201 y S202, la unidad de control determina si cada uno de los bloques es un bloque IPCM o un bloque sin-IPCM. De manera más específica, la unidad de control determina (1) si ambos de los dos bloques son bloques sin-IPCM (No en S201) , y (2) si ambos de los dos bloques son bloques IPCM (Si en S202) o (3) si uno de los bloques es un bloque IPCM y el otro es un bloque sin-IPCM (No en S202) .
Cuando el otro bloque es un bloque IPCM (Si en S202) , es decir, cuando ambos de los bloques son bloques IPCM, el filtrado es saltado para los píxeles p y q de ambos de los bloques (ambos del primer bloque y el segundo bloque (S203) .
Por otro lado, cuando el otro bloque no es un bloque IPCM (No en S202) , es decir, sólo uno de los bloques es un bloque IPCM, y el otro es un bloque sin-IPCM, la unidad de control realiza el control para provocar que la unidad de filtrado ejecute el filtrado en las Etapas S204 y S205.
En primer lugar, la unidad de filtrado ejecuta el filtrado utilizando una intensidad predeterminada en los píxeles incluidos en el bloque sin-IPCM (por ejemplo, los tres píxeles en el lado izquierdo en la Figura 4) , y da salida a los valores filtrados de píxel como los valores de píxel del bloque sin-IPCM (S204) . En adición, este filtrado también utiliza los valores de píxel de un bloque IPCM, en adición a los valores de píxel del bloque sin-IPCM. De manera más específica, la unidad de filtrado suaviza los valores de píxel del bloque sin-IPCM y los valores de píxel del bloque IPCM para calcular los valores de píxel del bloque filtrado sin-IPCM.
En adición, la unidad de filtrado da salida a los valores no filtrados de píxel para los píxeles incluidos en el bloque IPCM (los píxeles qO, ql, ... en el lado q) (S205) . Aquí, los valores no filtrados de píxel son salidos en los siguientes dos casos concebibles.
Un primer método es un método que filtra un bloque sin-IPCM, y que da salida a los valores de píxel original de un bloque IPCM sin el filtrado.
Un segundo método es un método de filtrado de ambos de un bloque sin-IPCM y un bloque IPCM, reemplazando los valores de pixel del bloque IPCM entre los valores filtrados de pixel por los valores de pixel original antes del filtrado, y dando salida a los valores de reemplazo de pixel. En cualquiera de los casos, los valores de pixel del bloque IPCM que son salidos son los valores de pixel original antes de la ejecución del filtrado.
El método de filtrado puede ser considerado que involucra el control para la realización de diferentes procedimientos de filtrado (las intensidades de filtro, la aplicación o no aplicación de un filtro, y el número (s) de píxeles en la aplicación) entre los bloques .
El filtrado (sobre todo, las operaciones por medio de la unidad de control y la unidad de filtrado) en la Etapas S204 y S205 se describe más adelante con referencia a las Figuras 6-8B.
En adición, cuando ambos de los bloques son bloques sin-IPCM en la Etapa S201 (No en S201) , la unidad de control realiza por omisión la operación de filtrado (S206) . En otras palabras, la unidad de control ejecuta el filtrado utilizando una intensidad predeterminada de filtro en ambos de los bloques .
De aquí en adelante, es dada la descripción de un aparato de codificación de imagen en movimiento que realiza el método de filtrado.
La Figura 6 es un diagrama de bloque funcional de un aparato de codificación de imagen en movimiento 100 de acuerdo con esta modalidad de la presente invención.
El aparato de codificación de imagen en movimiento 100 mostrado en la Figura 6 codifica una señal de imagen de entrada 120 para generar un flujo codificado de bits 132. El aparato de codificación de imagen en movimiento 100 comprende un substractor 101, una unidad de transformada ortogonal 102, una unidad de cuantificación 103, una unidad de cuantificación inversa 104, una unidad de transformada ortogonal inversa 105, un adicionador 106, una unidad de filtrado 115, una memoria 109, una unidad de predicción 110, una unidad de codificación de longitud variable 111, una unidad de selección 112 y una unidad de control 113.
El substractor 101 calcula la diferencia entre la señal de imagen de entrada 120 y la señal de imagen de predicción 130 para generar una señal residual 121. La unidad de transformada ortogonal 102 realiza la transformada ortogonal en la señal residual 121 para generar un coeficiente de transformada 122. La unidad de cuantificación 103 cuantifica el coeficiente de transformada 122 para generar el coeficiente cuantificado 123.
La unidad de cuantificación inversa 104 realiza la cuantificación inversa en el coeficiente cuantificado 123 para generar el coeficiente de transformada 124. La unidad de transformada ortogonal inversa 105 realiza la transformada ortogonal inversa en el coeficiente de transformada 124 para generar una señal residual decodificada 125. El adicionador 106 agrega la señal residual decodificada 125 y la señal de imagen de predicción 130 para generar una señal de imagen decodificada 126.
La unidad de filtrado 115 filtra la señal de imagen decodificada 126 para generar una señal de imagen 128, y almacena la señal generada de imagen 128 en la memoria 109.
La unidad de predicción 110 realiza, de manera selectiva, la intra-predicción y la inter-predicción utilizando la señal de imagen 128 almacenada en la memoria 109 para generar una señal de imagen de predicción 130.
La unidad de codificación de longitud variable 111 realiza la codificación de longitud variable (codificación de entropía) en el coeficiente cuantificado 123 para generar una señal codificada 131.
La unidad de selección 112 selecciona la señal de imagen de entrada 120 cuando un bloque actual es un bloque IPCM, y selecciona una señal codificada 131 cuando un bloque actual es un bloque sin-IPCM. Entonces, la unidad de selección 112 da salida a la señal seleccionada como un flujo codificado de bits 132.
La unidad de control 113 controla la unidad de filtrado 115 y la unidad de selección 112.
Aquí, la unidad de transformada ortogonal 102 y la unidad de cuantificación 103 son ejemplos de las unidades de transformada y cuantificación que generan un coeficiente de cuantificación a realizar la transformada y la cuantificación en la señal residual. En adición, la unidad de codificación de longitud variable 111 es un ejemplo de una unidad de codificación que codifica el coeficiente cuantificado para generar una señal codificada. En otras palabras, la unidad de cuantificación inversa 104 y la unidad de transformada ortogonal inversa 105 son ejemplos de una unidad de cuantificación inversa y una unidad de transformada inversa que generan una señal residual decodificada realizando la cuantificación inversa y la transformada inversa en el coeficiente cuantificado.
Aquí, sobre todo los elementos mayores del aparato de codificación de imagen en movimiento 100 de acuerdo con esta modalidad son la unidad de control 113 y la unidad de filtrado 115.
Como se describió con anterioridad, el método de filtrado de acuerdo con esta modalidad es ejecutado como partes de los procesos de codificación y los procesos de decodificación. En consecuencia, la unidad de filtrado 115 es localizada antes de la memoria 109 para la retención de las imágenes de referencia etc. La unidad de filtrado 115 almacena, en la memoria 109 en los circuitos, el resultado de la ejecución del filtrado (o el resultado del salto del filtrado) . A este respecto, la unidad de filtrado 115 es la misma que un filtro llamado un filtro de circuito en el Estándar H.264.
En adición, la unidad de filtrado 115 tiene dos líneas de entrada. Una primera de las señales de entrada es una señal de imagen decodificada 126 que representa los valores de píxel del bloque sin-IPCM, y una segunda de las señales de entrada es una señal de imagen de entrada 120 que representa los valores de píxel del bloque IPCM. Aquí, la señal de imagen decodificada 126 es una señal de imagen codificada reconstruida después de ser sometida a los procesos de transformada, cuantificación, cuantificación inversa y transformada inversa. En adición, la señal de imagen de entrada 120 es la señal original de imagen que no es sometida a la codificación y la decodificación.
Bajo el control de la unidad de control 113, la unidad de filtrado 115 da salida a los valores originales no filtrados de píxel del bloque IPCM, y filtra los valores de píxel del bloque sin-IPCM y da salida a los valores filtrados .
Esta unidad de filtrado 115 incluye una unidad de filtro 107 y una unidad de selección 108. La unidad de filtro 107 filtra la señal de imagen decodificada 126 para generar una señal de imagen 127. La unidad de selección 108 selecciona la señal de imagen 127 cuando un bloque actual es un bloque IPCM, y selecciona una señal de imagen de entrada 120 cuando un bloque actual es un bloque sin-IPCM y entonces, da salida a la señal seleccionada como una señal de imagen 128.
Cada una de las Figuras 7A y 7B es una ilustración de un ejemplo de los píxeles a través de un límite entre dos bloques. En el ejemplo mostrado en la Figura 7A, los dos bloques son adyacentes entre sí en la dirección horizontal. Aquí, el bloque que incluye los píxeles pO a pn en el lado izquierdo es referido como un primer bloque. Este primer bloque es un bloque sin-IPCM. En adición, el otro bloque es referido como un segundo bloque. Ese segundo bloque es un bloque IPCM. Aquí, como es mostrado en la Figura 7B, el filtrado en esta modalidad es naturalmente aplicable en el caso en donde un bloque IPCM y un bloque sin-IPCM son adyacentes entre sí en la dirección vertical.
De aquí en adelante, es dada la descripción de un ejemplo específico de las operaciones por medio de la unidad de filtrado 115.
Cada una de la Figura 8A y la Figura 8B es una ilustración de las operaciones realizadas por la unidad de filtrado 115 en el caso de filtrado de los píxeles p [i] y q [j] incluidos en los dos bloques que se ilustran en la Figura 7A. En otras palabras, el primer bloque pertenece al bloque sin-IPCM, y el segundo bloque es el bloque IPCM.
La unidad de filtrado 115 realiza las operaciones mostradas en la Figura 8A y la Figura 8B de acuerdo con una señal de control de la unidad de control 113.
La Figura 8A es una ilustración de una operación por medio de la unidad de filtrado 115 en el bloque sin-IPCM. Esta operación corresponde con la Etapa S204 mostrada en la Figura 5. En otras palabras, la unidad de filtrado 115 calcula los resultados de salida pfO, pfl, ... de los píxeles que corresponden con el primer bloque, utilizando ambos de los valores de píxel (pO, pl,...) del primer bloque y los valores de píxel (qO, ql,...) del segundo bloque.
La Figura 8B es una ilustración de las operaciones por medio de la unidad de filtrado 115 en el bloque IPCM. Esta operación corresponde con la Etapa S205 mostrada en la Figura 5. En otras palabras, la unidad de filtrado 115 da salida a los mismos valores (los valores no filtrados de píxel) como los valores de entrada qO, ql, y q2 , para los píxeles del segundo bloque.
De aquí en adelante, es dada la descripción de un aparato de decodificación de imagen en movimiento que realiza el método de filtrado.
La Figura 9 es un diagrama de bloque funcional de un aparato de decodificación de imagen en movimiento de acuerdo con esta modalidad.
El aparato de decodificación de imagen en movimiento 200 mostrado en la Figura 9 decodifica el flujo codificado de bits 232 para generar una señal de imagen de salida 220. Aquí, el flujo codificado de bits 232 es, por ejemplo, un flujo codificado de bits 132 generado por el aparato de codificación de imagen en movimiento 100.
Este aparato de decodificación de imagen en movimiento 200 comprende una unidad de cuantificación inversa 204, una unidad de transformada ortogonal inversa 205, un adicionador 206, una unidad de filtrado 215, una memoria 209, una unidad de predicción 210, una unidad de decodificación de longitud variable 211, una unidad de distribución 212 y una unidad de control 231.
La unidad de distribución 212 suministra el flujo codificado de bits 232 a la unidad de filtrado 215 cuando un bloque actual es un bloque IPCM, y suministra el flujo codificado de bits 232 a la unidad de decodificación de longitud variable 211 cuando un bloque actual es un bloque sin-IPCM.
La unidad de decodificación de longitud variable 211 realiza la decodificación de longitud variable (la decodificación de entropía) en el flujo codificado de bits 232 para generar un coeficiente cuantificado 223.
La unidad de cuantificación inversa 204 realiza la cuantificación inversa en el coeficiente de transformada 223 para generar el coeficiente de transformada 224. La unidad de transformada ortogonal inversa 205 realiza la transformada ortogonal inversa en el coeficiente de transformada 224 para generar una señal residual decodificada 225. El adicionador 206 agrega la señal residual decodificada 225 y la señal de imagen de predicción 230 para generar una señal de imagen decodificada 226.
La unidad de filtrado 215 filtra la señal de imagen decodificada 226 para generar una señal de imagen 228, y almacena la señal generada de imagen 228 en la memoria 209.
Esta unidad de filtrado 215 incluye una unidad de filtro 207 y una unidad de selección 208. La unidad de filtro 207 filtra la señal de imagen decodificada 226 para generar una señal de imagen 227. La unidad de selección 208 selecciona la señal de imagen 227 cuando un bloque actual es un bloque IPCM, y selecciona una señal de imagen de entrada 232 cuando un bloque actual es un bloque sin- IPCM y posteriormente, da salida a la señal seleccionada como una señal de imagen 228.
En adición, la señal de imagen 228 almacenada en la memoria 209 es salida como una señal de imagen de salida 220.
La unidad de predicción 210 realiza, de manera selectiva, la intra-predicción y la inter-predicción utilizando la señal de imagen 228 almacenada en la memoria 209 para generar una señal de imagen de predicción 230.
La unidad de control 213 controla la unidad de filtrado 215 y la unidad de distribución 212.
Aquí, la unidad de decodificación de longitud variable 211 es un ejemplo de una nidad de decodificación que decodifica el flujo codificado de bits para generar un coeficiente cuantificado . En otras palabras, la unidad de cuantificación inversa 204 y la unidad de transformada ortogonal inversa 205 son ejemplos de una unidad de cuantificación inversa y una unidad de transformada inversa que generan una señal residual decodificada realizando la cuantificación inversa y la transformada inversa en el coeficiente cuantificado .
Aquí, las operaciones por medio de la unidad de filtrado 215 son las mismas que las operaciones por medio de la unidad de filtrado 115 del aparato de codificación de imagen en movimiento 100. La unidad de control 213 es diferente de la unidad de control 113 incluida en el aparato de codificación de imagen en movimiento 100 en el punto de determinación si el tipo de unidad PU del primer bloque o el segundo bloque es o no IPCM a partir del flujo codificado de bits 232 que es una secuencia codificada de entrada, si no es el mismo en las otras funciones.
De aquí en adelante, son dadas las descripciones de las estructuras de las variaciones de las unidades de filtrado 115 y 215.
Cada una de la Figura 10A a la Figura 10H es una ilustración de la itnplementación concebible con respecto a la relación de entrada-salida de filtro de las unidades de filtrado 115 y 215.
Como es mostrado en la Figura 10A, cada una de las unidades de filtro 107 y 207 podría incluir las unidades de filtro 301 y 302 conectadas en serie. Por ejemplo, la primera unidad de filtro 301 y la segunda unidad de filtro 302 podrían realizar, diferentes procesos. En este caso, por ejemplo, todos los procesos de filtrado son derivados para el bloque IPCM.
Como es mostrado en la Figura 10B, la unidad de filtro 311 podría realizar el filtrado utilizando ambas de las señales entrada. En este caso, la unidad de selección 312 da salida a los valores no filtrados para el bloque IPCM, y la unidad de filtro 311 da salida a los valores filtrados para el bloque sin-IPCM.
Como es mostrado en la Figura 10C, también es bueno realizar los procesos de filtrado diferentes entre el bloque IPCM y el bloque sin-IPCM. Por ejemplo, los diferentes procesos de filtrado podrían ser los procesos de filtrado que utilizan diferentes intensidades de filtro. En adición, por ejemplo, la intensidad de filtro para el bloque IPCM podría ser más baja que la intensidad de filtro para el bloque sin-IPCM.
De manera más específica, la unidad de distribución 321 da salida a la señal de entrada hacia la unidad de filtro 322 cuando un bloque actual es un bloque sin-IPCM, y da salida a la señal de entrada hacia la unidad de filtro 323 cuando un bloque actual es un bloque IPCM. Aquí, las señales de entrada incluyen ambas de la señal de imagen decodificada 126 y la señal de imagen de entrada 120. La unidad de filtro 322 realiza el filtrado de una primera intensidad de filtro utilizando la señal de entrada para generar los valores de píxel del bloque actual. La unidad de filtro 322 realiza el filtrado utilizando una segunda intensidad de filtro más baja que la primera intensidad de filtro para generar los valores de píxel del bloque actual. La unidad de selección 324 da salida a los valores de píxel del bloque actual filtrados por la unidad de filtro 322 cuando el bloque actual es el bloque sin-IPCM, y da salida a los valores de píxel del bloque actual filtrados por la unidad de filtro 323 cuando el bloque actual es el bloque IPCM.
Como es mostrado en la Figura 10D, el procesamiento en el bloque IPCM no siempre necesita ser realizado. De manera más específica, la unidad de distribución 331 da salida a la señal de entrada hacia la unidad de filtro 332 cuando un bloque actual es un bloque sin-IPCM, y da salida a la señal de entrada hacia la unidad de selección 333 cuando un bloque actual es un bloque IPCM. La unidad de selección 333 da salida a los valores de píxel del bloque actual filtrados por medio de la unidad de filtro 332 cuando el bloque actual es el bloque sin- IPCM, y da salida a los valores de píxel del bloque actual en la señal de la unidad de filtro 331 cuando el bloque actual es el bloque IPCM.
Como es mostrado en la Figura 10E, es posible cambiar los lados de entrada de las unidades de filtro en lugar de cambiar los lados de salida de las unidades de filtro. Además, los números de las etapas de las unidades de filtro son diferentes entre un bloque IPCM y un bloque sin-IPCM. De manera más específica, la unidad de distribución 341 da salida a la señal de entrada hacia la unidad de filtro 342 cuando un bloque actual es un bloque sin- IPCM, y da salida a la señal de entrada hacia la unidad de filtro 344 cuando un bloque actual es un bloque IPCM. La unidad de filtro 342 realiza el filtrado utilizando la señal de entrada. La unidad de filtro 343 realiza el filtrado utilizando la señal filtrada por la unidad de filtro 342, y da salida a los valores de píxel del bloque actual filtrado. La unidad de filtro 344 realiza el filtrado utilizando la señal de entrada, y da salida a los valores de píxel del bloque actual filtrado. Aquí, el filtrado realizado por la unidad de filtro 344 podría ser el mismo o diferente del filtrado realizado por la unidad de filtro 342 y el filtrado realizado por la unidad de filtro 343.
Como es mostrado en la Figura 10F, es posible cambiar los lados de salida de las unidades de filtro. De manera más específica la unidad de filtro 351 realiza el filtrado utilizando la primera señal de entrada. La unidad de filtro 352 realiza el filtrado utilizando la señal filtrada por la unidad de filtro 351, y da salida a los valores de píxel del bloque actual filtrado. La unidad de filtro 353 realiza el filtrado utilizando la segunda señal de entrada, y da salida a los valores de píxel del bloque actual filtrado. La unidad de selección 354 da salida a los valores de píxel del bloque actual filtrados por medio de la unidad de filtro 352 cuando el bloque actual es el bloque sin-IPCM, y da salida a los valores de píxel del bloque actual filtrados por medio de la unidad de filtro 353 cuando el bloque actual es el bloque IPCM.
Aquí, la salida de un valor no filtrado involucra el reemplazo del valor de píxel que se origina a partir del filtrado por medio del valor original de entrada p y da salida al valor de reemplazo.
Como es mostrado en la Figura 10G, es posible utilizar una señal filtrada en una de las dos líneas en el filtrado que es realizado en la otra línea. De manera más específica, la unidad de filtro 361 realiza el filtrado utilizando la segunda señal de entrada. La unidad de filtro 362 realiza el filtrado utilizando la primera señal de entrada y una señal f-iltrada por medio de la unidad de filtro 361. La unidad de selección 363 da salida a los valores de píxel del bloque actual filtrados por medio de la unidad de filtro 362 cuando el bloque actual es el bloque sin-IPCM, y da salida a los valores de píxel del bloque actual filtrados por medio de la unidad de filtro 361 cuando el bloque actual es el bloque IPCM. La unidad de selección 363 podría dar salida a los valores de píxel del bloque actual filtrados por medio de la unidad de filtro 362 cuando el bloque actual es el bloque IPCM, y podría dar salida a los valores de píxel del bloque actual filtrados por medio de la unidad de filtro 361 cuando el bloque actual es el bloque sin-IPCM.
Como es mostrado en la Figura 10H, un valor almacenado una vez en la memoria 373 podría ser utilizado como una entrada. De manera más específica, la unidad de selección 371 selecciona una de la señal de entrada y la señal almacenada en la memoria 373. La unidad de filtro 372 realiza el filtrado utilizando la señal seleccionada por la unidad de selección 371.
Estos son ejemplos, y de esta manera, sólo es necesario que la unidad de filtrado 115 de acuerdo con esta modalidad ejerza una función finalmente "da salida a los valores no filtrados para los píxeles en un bloque IPCM" .
De aquí en adelante, es dada la descripción de una versión modificada de un método de filtrado de acuerdo con la presente invención. La Figura 11 es un diagrama de flujo de las operaciones en la versión modificada del método de filtrado de acuerdo con esta modalidad.
Se ha descrito que el filtrado es aplicado al bloque sin-IPCM en la Etapa S204 de la Figura 5 y los valores no filtrados de píxel del bloque IPCM son salidos en la Etapa S205 de la Figura 5. Sin embargo, estos procesos podrían ser realizados en las etapas indicadas más adelante. Por ejemplo, es posible realizar los procesos mostrados en la Figura 11 en lugar de las Etapas S204 y S205 mostradas en la Figura 5.
En primer lugar, los valores de píxel de un primer bloque (bloque [0] ) y un segundo bloque (bloque y [1] ) adyacentes entre sí son obtenidos (S221) . Aquí, por ejemplo, el primer bloque es un bloque sin-IPCM, y el segundo bloque es un bloque IPCM.
A continuación, una intensidad de filtro bS [0] que es aplicada al primer bloque y una intensidad de filtro bS [1] que es aplicada al segundo bloque son derivadas (S222 y S223) . Aquí, la intensidad de filtro bS [0] y la intensidad de filtro bS [1] muestran diferentes intensidades. En la técnica convencional, sólo es establecida una intensidad de filtro para un límite de bloque. Por ejemplo, en esta modalidad, la intensidad de filtro para el bloque IPCM es establecida más baja que la intensidad de filtro para el bloque sin-IPCM.
A continuación, ambos de los bloques son filtrados utilizando la intensidad de filtro bS [ 0 ] , y los valores de píxel del primer bloque después del filtrado son salidos (5224) . A continuación, ambos de los bloques son filtrados utilizando la intensidad de filtro bS [1] , y los valores de píxel del segundo bloque después del filtrado son salidos (5225) .
Aquí, es posible controlar la aplicación o no aplicación del filtrado ajustando el valor de la intensidad de filtro en 0 . En otras palabras, también es buena la derivación para cada uno de los bloques de un aviso (filter5amplesFlag) que controle la aplicación o no aplicación del filtrado.
Como se describió con anterioridad, el método de filtrado de acuerdo con esta modalidad hace posible la ejecución del filtrado en uno de los bloques utilizando la primera intensidad de filtro y la ejecución del filtrado en el otro bloque utilizando la segunda intensidad de filtro. En adición, el método de filtrado hace posible la realización de este procesamiento en los procesos de filtrado.
La Figura 12 es un diagrama de flujo de las operaciones en una variación del método de filtrado de acuerdo con esta modalidad. Los procesos mostrados en la Figura 12 además incluyen la Etapa S401, en adición a los procesos mostrados en la Figura 3.
Esta Etapa S401 es agregada para proporcionar una intensidad adecuada de filtro para un bloque IPCM que es inevitablemente determinado por ser un bloque que es intra-previsto. En la Etapa S401, es tomada una determinación en cuanto a si al menos uno del primer bloque y el segundo bloque es o no un bloque IPCM. Cuando al menos uno del primer bloque y el segundo bloque es el bloque IPCM (Si en S401) , es determinada la intensidad de filtro (bS) para que sea cualquiera de 3, 2, 1, y 0 que es más pequeña que N (= 4) (S124) . En adición, cuando ambos del primer bloque y el segundo bloque son bloques sin-IPCM (No en S401) , la intensidad de filtro es establecida o ajustada en bS = N lo cual significa la intensidad más alta (S123) .
En el caso del método de filtrado mostrado en la Figura 3 , cuando uno o ambos de los bloques es un macrobloque codificado que utiliza el modo de intra-predicción (Si en S122) , la intensidad de filtro por sí misma siempre es establecida para que sea bS= 4 lo cual significa la intensidad más alta sin considerar ningún otro factor de determinación .
Por otro lado, en el caso de esta variación de modalidad mostrada en la Figura 12, cuando uno o ambos de los bloques es un macrobloque codificado que utiliza el modo de intra-predicción (Si en S122) y cuando uno de los bloques es un bloque IPCM (Si en S401) , es establecida la intensidad de filtro (bS = 0-3) más baja que la intensidad de filtro (bS = 4) establecida en la Etapa S123.
La Figura 13 es una ilustración de las intensidades de filtro determinadas utilizando el método de filtrado de acuerdo con esta modalidad y las unidades de bloque que definen un límite.
Como es mostrado en la Figura 13, cuando un macrobloque MB [0] es un macrobloque codificado que utiliza el modo de inter-predicción y un macrobloque MB [1] es un macrobloque codificado que utiliza el modo de intra-predicción (Si en S122) y cuando ambos del primer y segundo bloques son bloques sin-IPCM (No en S401) , bS = 4 es establecido para ambos de los bloques (S123) .
Por otro lado, cuando un bloque PU [0] es codificado utilizando un modo sin-IPCM y un bloque PU [1] es codificado utilizando un modo IPCM, es decir, cuando un bloque CU [0] es un bloque sin-IPCM y un bloque CU [1] es un bloque IPCM (Si en S401) , bS = cualquiera de 0-3 es establecido para cada uno del bloque CU [0] y el bloque CU [1] . En este ejemplo, bS = 0 es establecido para el bloque CU [1] que es un bloque IPCM, y bS = cualquiera uno de 1-3 es establecido para el bloque CU [0] que es un bloque sin-IPCM.
Cada una de la Figura ,14A y la Figura 14B es una ilustración de un estado en el cual es extendido un intervalo de aplicación de un aviso que indica que el filtro se encuentra encendido manejando un bloque IPCM de acuerdo con esta modalidad. La Figura 14A muestra, como un ejemplo de comparación, un caso de la no aplicación de un procedimiento en esta modalidad. La Figura 14B muestra un caso de la aplicación del procedimiento en esta modalidad.
Como es mostrado en la Figura 14B, es posible extender el intervalo de aplicación del aviso que indica que un filtro se encuentra encendido utilizando el método de filtrado de acuerdo con esta modalidad.
Como se describió con anterioridad, el método de filtrado de acuerdo con esta modalidad emplea para la determinación, una regla implícita de interpretación de código que la unidad de filtrado o la unidad de control "no filtra un bloque IPCM" en el filtrado de circuito. De este modo, como es mostrado en la Figura 14A y la Figura 14B, es posible especificar si es activado o desactivado un filtro para una secuencia codificada en un intervalo más grande. De este modo, el método de filtrado de acuerdo con esta modalidad reduce la cantidad de bits.
Los métodos de filtrado, los aparatos de codificación de imagen en movimiento, y los aparatos de decodificación de imagen en movimiento de acuerdo con las modalidades de la presente invención han sido descritos con anterioridad, aunque la presente invención no es limitada a estas modalidades.
Por ejemplo, también es posible combinar al menos partes de las funciones de los métodos de filtrado, los aparatos de codificación de imagen en movimiento, los aparatos de decodificación de imagen en movimiento de acuerdo con las modalidades y las variaciones de los mismos.
En adición, la división de los bloques funcionales en cada uno de los diagramas de bloque es de ejemplo. También es posible implementar algunos de los bloques funcionales como un bloque funcional, dividir un bloque funcional en bloques plurales, y/o mover parte de la función (s) hacia cualquiera de los bloques funcionales. En adición, las funciones de los bloques funcionales plurales que tienen funciones similares entre sí podrían ser ejercidas en paralelo o en división de tiempo por medio del hardware o software .
En adición, el orden de ejecución de las etapas plurales de cada uno de los métodos de filtrado es proporcionado como un ejemplo que explica, de manera específica, la presente invención, y de esta manera, también son posibles otros órdenes. En adición, parte de las etapas podría ser ejecutado, en forma simultánea (en paralelo) con cualquiera de las otras etapas .
Por ejemplo, el orden de las Etapas S201 y S202 mostrado en la Figura 5 no se limita al orden descrito. En otras palabras, sólo es necesario que las Etapas S204 y S205 sean ejecutadas como resultado cuando "uno de los dos bloques a través de un límite sea incluido en un bloque IPCM, y el otro no sea incluido en un bloque IPCM" . En adición, también podría ser arbitrario el orden de las Etapas S204 y S205.
Del mismo modo, el orden de las Etapas S222-S225 mostradas en la Figura 11 no se limita al orden descrito. De manera más específica, el orden de las Etapas S222- S225 ¦ podría ser arbitrario con la condición que la Etapa S224 sea después de la Etapa S222 y la Etapa S225 sea después de la Etapa S223.
(Modalidad 2) El procesamiento descrito en cada una de las modalidades puede ser simplemente implementado en un sistema independiente de computadoras, mediante la grabación, en un medio de grabación, de un programa para la implementación de las configuraciones del método de codificación de imagen en movimiento (método de codificación de imagen) y el método de decodificación de imagen en movimiento (método de decodificación de imagen) descritas en cada una de las modalidades. Los medios de grabación podrían ser cualquier medio de grabación con la condición que el programa pueda ser grabado, tal como un disco magnético, un disco óptico, un disco óptico magnético, una tarjeta IC, y una memoria semiconductora .
De aquí en adelante, las aplicaciones para el método de codificación de imagen en movimiento (método de codificación de imagen) y el método de decodificación de imagen en movimiento (método de decodificación de imagen) descritas en cada una de las modalidades y los sistemas que utilizan las mismas serán descritas. El sistema tiene una característica que a su vez tiene un aparato de codificación y decodificación de imagen que incluye un aparato de codificación de imagen que utiliza el método de codificación de imagen y un aparato de decodificación de imagen que utiliza el método de decodificación de imagen. Otras configuraciones en el sistema pueden ser cambiadas según sea adecuado en función de los casos .
La Figura 15 ilustra una configuración completa de un sistema de suministro de contenido exlOO para la implementación de servicios de distribución de contenido. El área para el suministro de servicios de comunicación es dividida en celdas de tamaño deseado, y las estaciones de base exl06, exl07, eX108, exl09, y exllO que son estaciones inalámbricas fijas son colocadas en cada una de las celdas.
El sistema de suministro de contenido exlOO es conectado con dispositivos, tales como una computadora eXlll, un asistente digital personal (PDA, por sus siglas en inglés) exll2, una cámara exll3, un teléfono celular exll4 y una máquina de juegos eX115, por medio de la Internet exlOl, un proveedor de servicio de Internet exl02, una red de teléfono eX104, asi como también, las estaciones de base exl06-eX110, de manera respectiva.
Sin embargo, la configuración del sistema de suministro de contenido exlOO no es limitada a la configuración mostrada en la Figura 15, y es aceptable la combinación en la cual cualquiera de los elementos es conectado. En adición, cada dispositivo podría ser conectado, en forma directa, con la red de teléfono exl04, en lugar que por medio de las estaciones de base exl06-exll0 las cuales son las estaciones inalámbricas fijas. Además, los dispositivos podrían ser interconectados entre sí por medio de una comunicación inalámbrica de corta distancia y otras .
La' cámara exll3, tal como una cámara de video digital, es capaz de capturar video. Una cámara eX116, tal como una cámara de video digital, es capaz de capturar tanto imágenes fijas como video. Además, el teléfono celular exll4 podría ser uno que cumpla con cualquiera de los estándares tales como el Sistema Global de Comunicaciones Móviles (GSM, por sus siglas en inglpes) (marca comercial registrada) , el Acceso Múltiple de División de Código (CDMA, por sus siglas en inglés) , el Acceso Múltiple de División del Código de Banda Ancha (W-CDMA, por sus siglas en inglés) , la Evolución a Largo Plazo (LTE, por sus siglas en inglés) , y el Acceso de Paquete de Alta Velocidad (HSPA, por sus siglas en inglés) . En forma alterna, el teléfono celular exll4 podría ser un Sistema Personal de Teléfono (PHS, por sus siglas en inglés) .
En el sistema de suministro de contenido eXIOO, un servidor de transferencia de flujo exl03 es conectado con la cámara exll3 y otros por medio de la red de teléfono exl04 y la estación de base eX109, lo cual permite la distribución de las imágenes de un programa en directo y otros. En esta distribución, el contenido (por ejemplo, el video de un programa de música en directo) capturado por el usuario que utiliza la cámara exll3 es codificado como se describió con anterioridad en cada una de las modalidades (es decir, la cámara funciona como el aparato de codificación de imagen en la presente invención) , y el contenido codificado es trasmitido al servidor de transferencia de flujo exl03. Por otro lado, el servidor de transferencia de flujo exl03 realiza la distribución de flujo de los datos transmitidos de contenido a los clientes en función de sus peticiones. Los clientes incluyen la computadora eXlll, el PDA eXll2, la cámara eXll3, el teléfono celular eX114, y la máquina de juegos exll5 que son capaces de decodificar los datos codificados mencionados con anterioridad. Cada uno de los dispositivos que ha recibido los datos distribuidos, decodifica y reproduce los datos codificados (es decir, funciona como el aparato de decodificación de imagen en la presente invención) .
Los datos capturados podrían ser codificados por la cámara exll3 o el servidor de transferencia de flujo exl03 que transmite los datos, o los procesos de codificación podrían ser compartidos entre la cámara exll3 y el servidor de transferencia de flujo exl03. En forma similar, los datos distribuidos podrían ser decodificados por los clientes o el servidor de transferencia de flujo exl03, o los procesos de decodificación podrían ser compartidos entre los clientes y el servidor de transferencia de flujo exl03. Además, los datos de las imágenes fijas y video capturados no sólo por la cámara exll3 sino también por la cámara exll6 podrían ser transmitidos al servidor de transferencia de flujo exl03 a través de la computadora exlll. Los procesos de codificación podrían ser realizados por la cámara eXll6, la computadora exlll, o el servidor de transferencia de flujo eXl03, o podrían ser compartidos entre ellos.
Además, los procesos de codificación y decodificación podrían ser realizados por medio de un LSI ex500 que es generalmente incluido en cada una de la computadora exlll y los dispositivos. El LSI ex500 podría ser configurado a partir de un chip único o una pluralidad de chips . El software para la codificación y decodificación de video podría ser integrado en algún tipo de un medio de grabación (tal como un CD-ROM, un disco flexible y un disco duro) que puede ser leído por la computadora exlll y otros, y los procesos de codificación y decodificación podrían ser realizados utilizando el software. Además, cuando el teléfono celular exll4 es equipado con una cámara, podrían ser transmitidos los datos de imagen obtenidos por la cámara. Los datos de video son los datos codificados por el LSI ex500 incluido en el teléfono celular exll4.
Además, el servidor de transferencia de flujo exl03 podría estar compuesto de servidores y computadoras, y podría descentralizar los datos y procesar los datos descentralizados, además, podría grabar o distribuir los datos .
Como se describió con anterioridad, los clientes podrían recibir y reproducir los datos codificados en el sistema de suministro de contenido exlOO. En otras palabras, los clientes pueden recibir y decodificar la información transmitida por el usuario, y pueden reproducir los datos decodificados en tiempo real en el sistema de suministro de contenido exlOO, de modo que el usuario que no tenga algún equipo correcto particular puede implementar la radiodifusión personal .
Además a partir del ejemplo del sistema de suministro de contenido eXlOO, al menos uno del aparato de codificación de imagen en movimiento (el aparato de codificación de imagen) y del aparato de decodificación de imagen en movimiento (el aparato de decodificación de imagen) descritos en cada una de las modalidades podría ser implementado en un sistema de radiodifusión digital ex200 que se ilustra en la Figura 16. De manera más específica, una estación de radiodifusión ex201 se comunica o transmite, por medio de ondas de radio con un satélite de radiodifusión ex202, los datos multiplexados obtenidos mediante la multiplexión de los datos de audio y otros en los datos de video. Los datos de video son los datos codificados por el método de codificación de imagen en movimiento descrito en cada una de las modalidades (es decir, los datos codificados por el aparato de codificación de imagen en la presente invención) . En función de la recepción de los datos multiplexados, el satélite de radiodifusión ex202 transmite ondas de radio para la radiodifusión. Entonces, una antena de uso doméstico ex204 con una función de recepción de radiodifusión de satélite recibe las ondas de radio. A continuación, un dispositivo tal como una televisión (receptor) ex300 y un convertidor de señal de televisión (STB, por sus siglas en inglés) ex217 decodifica los datos multiplexados recibidos, y reproduce los datos decodificados (es decir, funciona como el aparato de codificación de imagen en la presente invención) .
Además, un lector/grabadora ex218 (i) lee y decodifica los datos multiplexados que son grabados en un medio de grabación ex215, tal como un DVD y a BD, o (i) codifica las señales de video en el medio de grabación ex215, y en algunos casos, escribe los datos obtenidos mediante la multiplexión de una señal de audio en los datos codificados. El lector/grabadora ex218 puede incluir el aparato de decodificación de imagen en movimiento o el aparato de codificación de imagen en movimiento como es mostrado en cada una de las modalidades. En este caso, las señales reproducidas de video son visualizadas en el monitor ex219, y pueden ser reproducidas por otro dispositivo o sistema utilizando el medio de grabación ex215 en el cual son grabados los datos multiplexados . También es posible la implementación del aparato de decodificación de imagen en movimiento en el convertidor de señal de televisión ex217 conectado con el cable ex203 para una televisión de cable o con la antena ex204 para la radiodifusión de satélite y/o terrestre, para así visualizar las señales de video en el monitor ex219 de la televisión ex300. El aparato de decodificación de imagen en movimiento podría ser implementado no en el convertidor de señal de televisión sino en la televisión ex300.
La Figura 17 ilustra la televisión (receptor) ex300 que utiliza el método de codificación de imagen en movimiento y el método de decodificación de imagen en movimiento que son descritos en cada una de las modalidades. La televisión ex300 incluye: un sintonizador ex3Ql que obtiene o proporciona los datos multiplexados que son obtenidos mediante la multiplexion de los datos de audio sobre los datos de video, a través de la antena ex204 o el cable ex203, etc. que recibe una radiodifusión; una unidad de modulación/desmodulación ex302 que desmodula los datos multiplexados recibidos o modula los datos en los datos multiplexados que serán suministrados al exterior; y una unidad de multiplexión/desmultiplexión ex303 que desmultiplexa los datos multiplexados modulados en los datos de video y los datos de audio, o multiplexa los datos de video y audio, los datos codificados por medio de una unidad de procesamiento de señal ex306 en los datos.
La televisión ex300 además incluye: una unidad de procesamiento de señal ex306 que a su vez incluye una unidad de procesamiento de señal de audio ex304 y una unidad de procesamiento de señal de video ex305 que decodifican los datos de audio y los datos de video y codifican los datos de audio y los datos de video, de manera respectiva (que funcionan como el aparato de codificación de imagen y el aparato de decodificación de imagen) ; y una unidad de salida ex309 que incluye un altavoz ex307 que proporciona la señal decodificada de audio, y una unidad de visualización ex308 que visualiza la señal decodificada de video, tal como una pantalla. Además, la televisión ex300 incluye una unidad de interfaz ex317 que a su vez incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación de usuario. Además, la televisión ex300 incluye una unidad de control ex310 que controla la totalidad de cada elemento constituyente de la televisión ex300, y una unidad de circuito de suministro de energía ex311 que suministra energía a cada uno de los elementos. A diferencia de la unidad de entrada de operación ex312, la unidad de interfaz ex317 podría incluir: un puente ex313 que es conectado con un dispositivo externo, tal como el lector/grabadora ex218; una unidad de ranura ex314 que permite el acoplamiento del medio de grabación ex216, tal como una tarjeta SD; un excitador ex315 que será conectado con un medio externo de grabación, tal como un disco duro; y un módem ex316 que será conectado con una red de teléfono. Aquí, el medio de grabación ex216 puede grabar, en forma eléctrica, la información utilizando un elemento de memoria semiconductora no volátil/volátil para su almacenamiento. Los elementos constituyentes de la televisión ex300 son conectados entre sí a través de un bus sincrónico.
En primer lugar, será descrita la configuración en la cual la televisión ex300 decodifica los datos multiplexados que son obtenidos desde el exterior a través de la antena ex204 y otros y reproduce los datos decodificados . En la televisión ex300, en función de la operación de usuario a través de un controlador remoto ex220 y otros, la unidad de multiplexión/desmultiplexión ex303 demultiplexa los datos multiplexados que son desmodulados por la unidad de modulación/desmodulación ex302, bajo el control de la unidad de control ex310 que incluye una CPU. Además, la unidad de procesamiento de señal de audio ex304 decodifica los datos desmultiplexados de audio, y la unidad de procesamiento de señal de video ex305 decodifica los datos desmultiplexados de video, utilizando el método de decodificación descrito en cada una de las modalidades, en la televisión ex300. La unidad de salida ex309 proporciona la señal decodificada de video y audio al exterior, de manera respectiva. Cuando la unidad de salida ex309 proporciona la señal de video y la señal de audio, las señales podrían ser almacenadas, en forma temporal, en las memorias intermedias ex318 y eX319, y otras, de modo que las señales son reproducidas en sincronización entre sí. Además, la televisión ex300 podría leer los datos multiplexados no a través de una radiodifusión y otros sino a partir de los medios de grabación ex215 y ex216, tal como un disco magnético, un disco óptico, y una tarjeta SD. A continuación, será descrita una configuración en la cual la televisión ex300 codifica una señal de audio y una señal de video, y transmite los datos hacia afuera o escribe los datos en un medio de grabación. En la televisión ex300, en función de la operación de usuario a través del controlador remoto ex220 y otros, la unidad de procesamiento de señal de audio ex304 codifica una señal de audio, y la unidad de procesamiento de señal de video ex305 codifica una señal de video, bajo el control de la unidad de control ex310 utilizando el método de codificación descrito en cada una de las modalidades. La unidad de multiplexión/desmultiplexión ex303 multiplexa la señal codificada de video y audio, y proporciona la señal resultante hacia el exterior. Cuando la unidad de multiplexión/desmultiplexión ex303 multiplexa la señal de video y la señal de audio, las señales podrían ser almacenadas, en forma temporal, en las memorias intermedias ex320 y ex321, y otros, de modo que las señales son reproducidas en sincronización entre sí. Aquí, las memorias intermedias ex318, ex319, ex320 y ex321 podrían ser plurales como es ilustrado, o al menos una memoria intermedia podría ser compartida en la televisión ex300. Además, los datos podrían ser almacenados en una memoria intermedia, de modo que exceso de flujo y bajo flujo del sistema podrían ser editados, por ejemplo, entre la unidad de modulación/desmodulación ex302 y la unidad de multiplexión/desmultiplexión ex303.
Además, la televisión ex300 podría incluir una configuración para la recepción de una entrada AV de un micrófono o una cámara diferente de la configuración para la obtención de los datos de audio y de video de una radiodifusión o un medio de grabación, y podría codificar los datos obtenidos. Aunque la televisión ex300 puede codificar, multiplexar, y proporcionar datos hacia el exterior en la descripción, ésta podría ser capaz sólo de recibir, decodificar, y proporcionar datos al exterior aunque no podría codificar, multiplexa y proporcionar datos hacia el exterior.
Además, cuando el lector/grabadora ex218 lee o escribe los datos multiplexados a partir de o en un medio de grabación, uno de la televisión ex300 y el lector/grabadora ex218 podría decodificar o codificar los datos multiplexados, y la televisión ex300 y el lector/grabadora ex218 podría compartir la decodificación o codificación.
Como un ejemplo, la Figura 18 ilustra una configuración de una unidad de reproducción/grabación de información ex400 cuando los datos son leídos o escritos a partir de o en un disco óptico. La unidad de reproducción/grabación de información ex400 incluye los elementos constituyentes ex401, ex402, ex403, eX404, ex405, ex406 y ex407 que serán descritos de aquí en adelante. La cabeza óptica ex401 irradia un sitio de láser en una superficie de grabación del medio de grabación ex215 que es un disco óptico para escribir la información y detecta la luz reflejada de la superficie de grabación del medio de grabación ex215 para leer la información. La unidad de grabación de modulación ex402 excita, en forma eléctrica, un láser semiconductor incluido en la cabeza óptica ex401, y modula la luz de láser de acuerdo con los datos grabados . La unidad de desmodulación de reproducción ex403 amplifica una señal de reproducción obtenida mediante la detección, en forma eléctrica, de la luz reflejada de la superficie de grabación utilizando un foto-detector incluido en la cabeza óptica ex401, y desmodula la luz de reproducción mediante la separación de un componente de señal grabado en el medio de grabación ex215 para reproducir la información necesaria. La memoria intermedia ex404 requiere la información, en forma temporal, que será grabada en el medio de grabación ex215 y la información reproducida a partir del medio de grabación ex215. El motor de disco ex405 gira el medio de grabación ex215. La unidad de control servo ex406 mueve la cabeza óptica ex401 hacia una pista predeterminada de información mientras controla la impulsión de rotación del motor de disco ex405 para así seguir el sitio de láser. La unidad de control de .sistema ex407 controla la totalidad de la unidad de reproducción/grabación de información ex400. Los procesos de lectura y escritura pueden ser implementados por la unidad de control de sistema ex407 utilizando varias informaciones almacenadas en la memoria intermedia ex404 y generando y agregando nueva información, según sea necesario, y por medio de la unidad de grabación de modulación eX402, la unidad de desmodulación de reproducción ex403 y la unidad de control servo ex406 que graban y reproducción la información a través de la cabeza óptica ex401 mientras está siendo operada en un modo coordinado. La unidad de control de sistema ex407 incluye, por ejemplo, un microprocesador, y ejecuta el procesamiento provocando que una computadora ejecute un programa para la lectura y escritura.
Aunque la cabeza óptica ex401 irradia un sitio de láser en la descripción, ésta podría realizar la grabación de alta densidad utilizando una luz de campo cercano.
La Figura 19 ilustra el medio de grabación ex215 que es el disco óptico. Sobre la superficie de grabación del medio de grabación eX215, las ranuras de guia son formadas en espiral, y una pista de información ex230 graba por adelantado, la información de dirección que indica la posición absoluta sobre el disco de acuerdo con el cambio en la forma de las ranuras de guía. La información de dirección incluye la información que determina las posiciones de los bloques de grabación ex231 que son una unidad para la grabación de los datos. La grabación de la pista de información ex230 y la lectura de la información de dirección en un aparato que graba y reproduce los datos que pueden conducir a la determinación de las posiciones de los bloques de grabación. Además, el medio de grabación ex215 incluye un área de grabación de datos ex233, un área de circunferencia interior ex232 y un área de circunferencia exterior ex234. El área de grabación de datos ex233 es el área para uso en la grabación de los datos de usuario. El área de circunferencia interior ex232 y el área de circunferencia exterior ex234 que se encuentran en el interior y el exterior del área de grabación de datos ex233, de manera respectiva, son para uso especifico excepto para la grabación de los datos de usuario. La unidad de reproducción/grabación de información 400 lee y escribe el audio codificado, los datos codificados de video, o los datos multiplexados que son obtenidos a través de la multiplexión de los datos codificados y los datos de video, a partir y sobre el área de grabación de datos ex233 del medio de grabación ex21S.
Aunque un disco óptico que tiene una capa, tal como un DVD y un BD es descrito como un ejemplo en la descripción, el disco óptico no es limitado como tal, y podría ser un disco óptico que tiene una estructura de múltiples capas y es capaz de ser grabado en una parte diferente de la superficie. Además, el disco óptico podría tener una estructura para la grabación/reproducción de múltiples dimensiones, tal como la grabación de información utilizando luces de colores con diferentes longitudes de onda en la misma porción del disco óptico y para la grabación de información que tiene diferentes capas de varios ángulos.
Además, un automóvil ex210 que tiene una antena ex20S puede recibir datos del satélite ex202 y otros, y puede reproducir video en un dispositivo de visualización, tal como un sistema de navegación de automóvil ex211 colocado en el automóvil ex210, en el sistema de radiodifusión digital ex200. Aquí, una configuración del sistema de navegación de automóvil ex211 será una configuración que incluye, por ejemplo, una unidad de recepción GPS a partir de la configuración que se ilustra en la Figura 17. Lo mismo será verdadero para la configuración de la computadora exlll, el teléfono celular exll4 y otros.
La Figura 20A ilustra el teléfono celular exll4 que utiliza el método de codificación de imagen en movimiento y el método de decodificación de imagen en movimiento descritos en las modalidades. El teléfono celular exll4 incluye: una antena ex3S0 para la transmisión y recepción de ondas de radio a través de la estación de base exllO; una unidad de cámara ex365 capaz de capturar imágenes en movimiento y fijas; y una unidad de visualización ex358, tal como una pantalla de cristal líquido para la visualización de los datos tales como el video decodificado que es capturado por la unidad de cámara ex365 o que es recibido por la antena ex350. El teléfono celular exll4 además incluye: una unidad de cuerpo principal que a su vez incluye una unidad de tecla de operación ex366; una unidad de salida de audio ex357 tal como un altavoz para la salida de la audio; una unidad de entrada de audio ex356 tal como un micrófono para la entrada de la audio; una unidad de memoria ex367 para el almacenamiento de las imágenes capturadas de video o fijas del audio grabado, los datos codificados o decodificados del video recibido, las imágenes fijas, los correos electrónicos, u otros; y una unidad de ranura ex364 que es una unidad de ínterfaz para un medio de grabación que almacena los datos en el mismo modo que la unidad de memoria ex367.
A continuación, un ejemplo de una configuración del teléfono celular exll4 será descrito con referencia a la Figura 20B. En el teléfono celular exll4, una unidad de control principal ex360 designada para controlar la totalidad de cada unidad del cuerpo principal que incluye la unidad de visualización ex358 así como también, la unidad de tecla de operación ex366 es conectada en forma mutua, por medio de un bus sincrónico ex370, con una unidad de circuito de suministro de energía ex361, una unidad de control de entrada de operación ex362, una unidad de procesamiento de señal de video ex355, una unidad de interfaz de cámara ex363, una unidad de control de pantalla de cristal líquido (LCD, por sus siglas en inglés) ex359, una unidad de modulación/desmodulación ex352, una unidad de multiplexión/desmultiplexión ex353, una unidad de procesamiento de señal de audio ex354, una unidad de ranura ex364 y una unidad de memoria ex367.
Cuando es encendida una tecla de finalización de llamada o de encendido por la operación de usuario, la unidad de circuito de suministro de energía ex361 suministra energía a las respectivas unidades a partir de un paquete de baterías para así activar el teléfono celular exll .
En el teléfono celular exll4, la unidad de procesamiento de señal de audio ex354 convierte las señales de audio recolectadas por la unidad de entrada de audio ex356 en un modo de conversación de voz en señales de audio digital de acuerdo con el control de la unidad de control principal ex360 que incluye una CPU, ROM, y RAM. Entonces, la unidad de modulación/desmodulación ex352 realiza el procesamiento de espectro de dispersión en las señales de audio digital, y la unidad de transmisión y recepción ex351 realiza la conversión de digital-a-analógico y la conversión de frecuencia en los datos, para así trasmitir los datos resultantes por medio de la antena ex350. Asimismo, en el teléfono celular eX114, la unidad de transmisión y recepción ex351 amplifica los datos recibidos por la antena ex350 en el modo de conversación de voz y realiza la conversión de frecuencia y la conversión de analógico-a-digital en los datos. Entonces, la unidad de modulación/desmodulación ex352 realiza el procesamiento inverso de espectro de dispersión en los datos, y la unidad de procesamiento de señal de audio ex354 los convierte en señales de audio analógico, para dejarlos salir por medio de la unidad de salida de audio ex357.
Además, cuando es trasmitido un correo electrónico en el modo de comunicación de datos, los datos de texto del correo electrónico entrado mediante la operación de la unidad de tecla de operación ex366 y otros del cuerpo principal son enviados hacia la unidad de control principal ex360 por medio de la unidad de control de entrada de operación ex362. La unidad de control principal ex360 provoca que la unidad de modulación/desmodulación ex352 realice el procesamiento de espectro de dispersión en los datos de texto, y la unidad de transmisión y recepción ex351 realiza la conversión de digital-a-analógico y la conversión de frecuencia en los datos resultantes para transmitir los datos la estación de base exllO por medio de la antena ex350. Cuando un correo electrónico es recibido, el procesamiento que es aproximadamente inverso al procesamiento para la transmisión de un correo electrónico es realizado sobre los datos recibidos, y los datos resultantes son proporcionados la unidad de visualización ex358.
Cuando las imágenes de video, las imágenes fijas o el video y audio en el modo de comunicación de datos es o son transmitidas, la unidad de procesamiento de señal de video ex355 comprime y codifica las señales de video suministradas a partir de la unidad de cámara ex365 utilizando el método de codificación de imagen en movimiento mostrado en cada una de las modalidades (es decir, funciona como el aparato de codificación de imagen en la presente invención) , y transmite los datos codificados de video a la unidad de multiplexión/desmultiplexión ex353. En contraste, cuando la unidad de cámara ex365 captura imágenes de video, imágenes fijas, y otras, la unidad de procesamiento de señal de audio ex354 codifica las señales de audio recolectadas por la unidad de entrada de audio ex356, y transmite los datos codificados de audio a la unidad de multiplexión/desmultiplexión ex353.
La unidad de multiplexión/desmultiplexión ex353 multiplexa los datos codificados de video suministrados a partir de la unidad de procesamiento de señal de video ex355 y los datos codificados de audio suministrados a partir de la unidad de procesamiento de señal de audio ex354, utilizando un método predeterminado. Entonces, la unidad de modulación/desmodulación (la unidad de circuito de modulación/desmodulación) ex352 realiza el procesamiento de espectro de dispersión en los datos multiplexados , y la unidad de transmisión y recepción ex351 realiza la conversión de digital-a-analógico y la conversión de frecuencia en los datos para así trasmitir los datos resultantes por medio de la antena ex350.
Cuando se reciben los datos de un archivo de video que se encuentra enlazado con una página Web y otros en el modo de comunicación de datos o cuando se recibe un correo electrónico con el audio y/o video unidos, con el objeto de decodificar los datos multiplexados recibidos por medio de la antena ex350, la unidad de multiplexión/desmultiplexión ex353 demultiplexa los datos multiplexados en un flujo de bits de datos de video y en un flujo de bits de datos de audio, y suministra a la unidad de procesamiento de señal de video ex355 los datos codificados de video y a la unidad de procesamiento de señal de audio ex354 los datos codificados de audio, a través del bus sincrónico ex370. La unidad de procesamiento de señal de video ex355 decodifica la señal de video utilizando un método de decodificación de imagen en movimiento que corresponde con el método de codificación de imagen en movimiento mostrado en cada una de las modalidades (es decir, funciona como el aparato de decodificación de imagen en la presente invención) , y posteriormente, la unidad de visualización ex358 visualiza por ejemplo, las imágenes de video y las imágenes fijas incluidas en el archivo de video enlazado, con la página Web por medio de la unidad de control LCD ex359. Además, la unidad de procesamiento de señal de audio ex354 decodifica la señal de audio, y la unidad de salida de audio ex357 proporciona el audio.
Además, en forma similar a la televisión ex300, una terminal, tal como el teléfono celular exll4 tiene probablemente 3 tipos de configuraciones de implementación que incluyen no sólo (i) una terminal de transmisión y recepción que a su vez incluye ambos de un aparato de codificación y un aparato de decodificación, sino también (ii) una terminal de transmisión que incluye sólo un aparato de codificación e (iii) una terminal de recepción que incluye sólo un aparato de decodificación. Aunque el sistema de radiodifusión digital ex200 recibe y transmite los datos multiplexados que son obtenidos a través de la multiplexión de los datos de audio sobre los datos de video en la descripción, los datos multiplexados podrían ser los datos obtenidos mediante la multiplexión no de los datos de audio sino de los datos de carácter relacionados con el video en los datos de video, y podrían ser no los datos multiplexados sino los datos de video por sí mismos.
Como tal, el método de codificación de imagen en movimiento y el método de decodificación de imagen en movimiento en cada una de las modalidades pueden ser utilizados en cualquiera de los dispositivos y sistemas descritos. De esta manera, pueden ser obtenidas las ventajas descritas en cada una de las modalidades .
Además, la presente invención no es limitada a las modalidades, y son posibles varias modificaciones y revisiones sin apartarse del alcance de la presente invención.
(Modalidad 3) Los datos de video pueden ser generados cambiando, según sea necesario, entre (i) el método de codificación de imagen en movimiento o el aparato de codificación de imagen en movimiento que son mostrados en cada una de las modalidades e (ii) un método de codificación de imagen en movimiento o un aparato de codificación de imagen en movimiento de conformidad con un estándar diferente, tal como MPEG-2, MPEG-4 AVC, y VC-1.
Aquí, cuando es generada y posteriormente es decodificada una pluralidad de los datos de video que se conforma con los diferentes estándares, los métodos de decodificación necesitan ser seleccionados para conformarse a los diferentes estándares. Sin embargo, debido a este estándar no puede ser detectada cada uno de la pluralidad de los datos de video que serán decodificados , existe un problema en el que no puede ser seleccionado un método adecuado de decodificación.
Con el propósito de resolver el problema, los datos multiplexados que son obtenidos mediante la multiplexión de los datos de audio y otros sobre los datos de video tienen una estructura que incluye la información de identificación que indica en cual estándar se conforman los datos de video. La estructura específica de los datos multiplexados, que incluye los datos de video generados en el método de codificación de imagen en movimiento y por medio del aparato de codificación de imagen en movimiento que son mostrados en cada una de las modalidades, será descrita de aquí en adelante. Los datos multiplexados son un flujo digital en el formato del Flujo de Transporte MPEG-2.
La Figura 21 ilustra una estructura de los datos multiplexados. Como se ilustra en la Figura 21, los datos multiplexados pueden ser obtenidos a través de la multiplexión al menos de uno de un flujo de video, un flujo de audio, un flujo de gráficos de presentación (PG) y un flujo de gráficos interactivo. El flujo de video representa el video primario y el video secundario de una película, el flujo de audio (IG) representa una parte de audio primario y una parte de audio secundario que serán mezcladas con la parte de audio primario, y el flujo de gráficos de presentación representa los subtítulos de la película. Aquí, el video primario es el video normal que será visualizado en una pantalla, y el video secundario es el video que será visualizado en una ventana más pequeña en el video primario. Además, el flujo de gráficos interactivo representa una pantalla interactiva que será generada colocando los componentes GUI en una pantalla. El flujo de video es codificado en el método de codificación de imagen en movimiento o por medio del aparato de codificación de imagen en movimiento mostrado en cada una de las modalidades, o en un método de codificación de imagen en movimiento o por medio de un aparato de codificación de imagen en movimiento de conformidad con un estándar convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1. El flujo de audio es codificado de acuerdo con un estándar, tal como Dolby-AC-3, Dolby Digital Plus, MLP, DTS , DTS-HD, y PCM lineal.
Cada flujo incluido en los datos multiplexados es identificado por PID. Por ejemplo, 0x1011 es distribuido al flujo de video que será utilizado para el video de una película, OxllOO-OxlllF son distribuidos a los flujos dé audio, 0xl200-0xl21F son distribuidos a los flujos de gráficos de presentación, 0xl400-0xl41F son distribuidos a los flujos de gráficos interactivos, OxlBOO-OxlBlF son distribuidos a los flujos de video que serán utilizados para el video secundario de la película, y OxlAOO-OxlAlF son distribuidos a los flujos de audio que serán utilizados para el video secundario que será mezclado con el audio primario.
La Figura 22 ilustra, de manera esquemática, la manera como son multiplexados los datos. En primer lugar, un flujo de video ex235 compuesto de los cuadros de video y un flujo de audio ex238 compuesto de los cuadros de audio son transformados en un flujo de paquetes PES ex236 y un flujo de paquetes PES ex239, y además en los paquetes TS ex237 y paquetes TS ex240, de manera respectiva. En forma similar, los datos de un flujo de gráficos de presentación ex241 y los datos de un flujo de gráficos interactivo ex244 son transformados en un flujo de paquetes PES ex242 y un flujo de paquetes PES ex245, y además en los paquetes TS ex243 y los paquetes TS ex246, de manera respectiva. Estos paquetes TS son multiplexados en un flujo para obtener los datos multiplexados ex247.
La Figura 23 ilustra la manera como es almacenado un flujo de video en un flujo de paquetes PES en mayor detalle. La primera barra en la Figura 23 muestra un flujo de cuadro de video en un flujo de video. La segunda barra muestra el flujo de paquetes PES. Como es indicado por las flechas derrotadas como yyl, yy2 , yy3, y yy4 en la Figura 23, el flujo de video es dividido en imágenes, tales como las imágenes I, las imágenes B, y las imágenes P, cada una de las cuales es una unidad de presentación de video, y las imágenes son almacenadas en una carga útil de cada uno de los paquetes PES. Cada uno de los paquetes PES tiene un encabezado PES, y el encabezado PES almacena una Marca de Tiempo de Presentación (PTS, por sus siglas en inglés) que indica el tiempo de visualización de la imagen, y una activa Marca de Tiempo de Decodificación (DTS, por sus siglas en inglés) que indica el tiempo de decodificación de la imagen.
La Figura 24 ilustra un formato de los paquetes TS que serán finalmente escritos sobre los datos multiplexados . Cada uno de los paquetes TS es un paquete de longitud fija de 188-bytes que incluye un encabezado TS de 4-bytes que tiene información, tal como una PID que identifica un flujo y una carga útil TS de 184-bytes para el almacenamiento de los datos. Los paquetes PES son divididos y almacenados en las cargas útiles TS, de manera respectiva. Cuando es utilizada una BD ROM, a cada uno de los paquetes TS le es proporcionado un TP_Extra_Header de 4-bytes, de esta manera, se originan paquetes de origen de 192-bytes. Los paquetes de origen son escritos sobre los datos multiplexados . El TP _Extra_Header almacena la información tal como ArrivaLTime_Stamp (ATS) . La ATS muestra el tiempo de inicio de transferencia en el cual cada uno de los paquetes TS será transferido a un filtro PID. Los paquetes de origen son colocados en los datos multiplexados como es mostrado en la parte inferior de la Figura 24. Los números que se incrementarán a partir de la parte delantera de los datos multiplexados son llamados los números de paquete de origen (SPNs, por sus siglas en inglés) .
Cada uno de los paquetes TS incluidos en los datos multiplexados incluye no sólo los flujos de audio, video, subtítulos y otros, sino también una Tabla de Asociación de Programa (PAT, por sus siglas en inglés) , una Tabla de Mapa de Programa (PMT, por sus siglas en inglés) y una Referencia de Reloj de Programa (PCR, por sus siglas en inglés) . La PAT muestra que indica un PID en una PMT utilizada en los datos multiplexados, y un PID de la PAT por sí misma es registrado como cero. La PMT almacena los PIDs de los flujos de video, audio, subtítulos y otros incluidos en los datos multiplexados, y la información de atributo de los flujos que corresponden con los PIDs. La PMT también tiene varios descriptores que se refieren a los datos multiplexados. Los descriptores tienen la información tal como la información de control de copia que muestra si el copiado de los datos multiplexados es permitido o no. La PCR almacena la información de tiempo STC que corresponde con una ATS que muestra cuando es transferido el paquete PCR a un decodificador, con el propósito de conseguir la sincronización entre un Reloj de Tiempo de Llegada (ATC, por sus siglas en inglés) que es un eje de tiempo de las ATSs, y un Reloj de Tiempo de Sistema (STC, por sus siglas en inglés) que es un eje de tiempo de las PTSs y OTSs.
La Figura 25 ilustra en detalle una estructura de datos de la PMT. Un encabezado PMT es situado en la parte superior de la PMT . El encabezado PMT describe la longitud de los datos incluidos en la PMT y otros. Una pluralidad de descriptores que se refieren a los datos multiplexados es situada después del encabezado PMT. La información, tal como la información de control de copia, es descrita en los descriptores. Después de los descriptores, es situada una pluralidad de piezas de la información de flujo que se refiere a los flujos incluidos en los datos multiplexados . Cada pieza de la información de flujo incluye los descriptores de flujo, cada uno describe la información, tal como el tipo de flujo que identifica un códec de compresión de un flujo, un flujo PID, y la información de atributo de flujo (tal como la velocidad de flujo o la relación entre dimensiones) . Los descriptores de flujo son iguales en número al número de los flujos en los datos multiplexados.
Cuando los datos multiplexados son grabados en un medio de grabación y otros, estos son grabados junto con los archivos de información de datos multiplexados.
Cada uno de los archivos de información de datos multiplexados es la información de manejo de los datos multiplexados como es mostrado en la Figura 26. Los archivos de información de datos multiplexados se encuentran en una correspondencia de uno a uno con los datos multiplexados, y cada uno de los archivos incluye la información de datos multiplexados, la información de atributo de flujo y un mapa de entrada .
Como se ilustra en la Figura 26, los datos multiplexados incluyen la velocidad del sistema, el tiempo de inicio de reproducción y el tiempo de finalización de reproducción. La velocidad del sistema indica la velocidad de transferencia máxima en la cual un decodificador de objetivo del sistema que será descrito más adelante transfiere los datos multiplexados a un filtro PID. Los intervalos de las ATSs incluidas en los datos multiplexados son ajustados o establecidos para que no sean más altos que la velocidad del sistema. El tiempo de inicio de reproducción indica una PTS en un cuadro de video en la parte delantera de los datos multiplexados . Un intervalo de un cuadro es agregado a una PTS en un cuadro de video en la finalización de los datos multiplexados, y la PTS es establecida en el tiempo de finalización de reproducción.
Como es mostrado en la Figura 27, es registrada una pieza de la información de atributo en la información de atributo de flujo, para cada PID de cada flujo incluido en los datos multiplexados. Cada pieza de la información de atributo tiene diferente información que depende si el flujo correspondiente es un flujo de video, un flujo de audio, un flujo de gráficos de presentación, o un flujo de gráficos interactivo. Cada pieza de la información de video de atributo de flujo lleva la información que incluye qué tipo de códec de compresión es utilizado para la comprensión del flujo de video, y la resolución, la relación entre dimensiones y la velocidad de cuadro de las piezas de los datos de imagen que son incluidos en el flujo de video. Cada pieza de la información de atributo del flujo de audio lleva la información que incluye qué tipo de códec de compresión es utilizado para la comprensión del flujo de audio, cuántos canales son incluidos en el flujo de audio, que lenguaje soporta el flujo de audio, y qué tan alta es la frecuencia de muestreo. La información de atributo de flujo de video y la información de atributo de flujo de audio son utilizadas para la inicialización de un decodificador antes que el reproductor reproduzca la información.
En la presente modalidad, los datos multiplexados que serán utilizados son de un tipo de flujo incluido en la PMT. Además, cuando los datos multiplexados son grabados en un medio de grabación, es utilizada la información de atributo de flujo de video incluida en la información de datos multiplexados. De manera más específica, el método de codificación de imagen en movimiento o el aparato de codificación de imagen en movimiento que se describen en cada una de las modalidades incluye una etapa o una unidad para la distribución de la información única que indica los datos de video que son generados por el método de codificación de imagen en movimiento o por el aparato de codificación de imagen en movimiento en cada una de las modalidades, para el tipo de flujo incluido en la I?MT o la información de atributo de flujo de video. Con la configuración, los datos de video generados por el método de codificación de imagen en movimiento o por el aparato de codificación de imagen en movimiento que se describen en cada una de las modalidades pueden ser distinguidos de los datos de video que se conforman con otro estándar.
Además, la Figura 28 ilustra las etapas del método de decodificación de imagen en movimiento de acuerdo con la presente modalidad. En la Etapa ex5100, el tipo de flujo incluido en la PMT o la información de atributo de flujo de video es obtenido a partir de los datos multiplexados . A continuación, en la Etapa ex5101, se determina si el tipo de flujo o la información de atributo de flujo de video indica o no que los datos multiplexados son generados por medio del método de codificación de imagen en movimiento o del aparato de codificación de imagen en movimiento en cada una de las modalidades. Cuando se determina que el tipo de flujo o la información de atributo de flujo de video indica que los datos multiplexados son generados por medio del método de codificación de imagen en movimiento o del aparato de codificación de imagen en movimiento en cada una de las modalidades, en la Etapa ex5102, la decodificación es realizada por el método de decodificación de imagen en movimiento en cada una de las modalidades. Además, cuando el tipo de flujo o la información de atributo de flujo de video indica la conformidad con los estándares convencionales, tales como MPEG-2, MPEG-4 AVC, y VC-1, en la Etapa ex5103, la decodificación es realizada por medio de un método de decodificación de imagen en movimiento de conformidad con el estándar convencional.
Como tal, la distribución de un nuevo valor único al tipo de flujo o a la información de atributo de flujo de video permite determinar si el método de decodificación de imagen en movimiento o el aparato de decodificación de imagen en movimiento que se describen en cada una de las modalidades puede realizar o no la decodificación. Aún cuando los datos multiplexados que se conforman con un estándar diferente, puede ser seleccionado un método o aparato adecuado de decodificación. De esta manera, es posible codificar la información sin ningún error. Además, el método o aparato de codificación de imagen en movimiento, o el método, o aparato de decodificación de imagen en movimiento en la presente modalidad pueden ser utilizados en los dispositivos y sistemas descritos con anterioridad.
(Modalidad 4) Cada uno del método de codificación de imagen en movimiento, del aparato de codificación de imagen en movimiento, del método de decodificación de imagen en movimiento y del aparato de decodificación de imagen en movimiento en cada una de las modalidades es típicamente conseguido en la forma de un circuito integrado o un circuito Integrado de Gran Escala (LSI, por sus siglas en inglés) . Como un ejemplo del LSI, la Figura 29 ilustra una configuración del LSI ex500 que es elaborado en un chip. El LSI ex500 incluye los elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508 y ex509 que serán descritos más adelante, y los elementos son conectados entre sí a través de un bus exSlO. La unidad de circuito de suministro de energía ex505 es activada suministrando energía a cada uno de los elementos cuando la unidad de circuito de suministro de energía ex505 es encendida.
Por ejemplo, cuando la codificación es realizada, el LSI ex500 recibe una señal AV de un micrófono eXH7, una cámara exll3, y otros a través de un AV 10 ex509 bajo el control de una unidad de control ex501 que incluye una CPU ex502, un controlador de memoria ex503, un controlador de flujo ex504 y una unidad de control de frecuencia de excitación exS12. La señal recibida AV es almacenada, en forma temporal, en una memoria externa exSll, tal como una SDRAM. Bajo el control de la unidad de control ex501, los datos almacenados son segmentados en porciones de datos de acuerdo con la cantidad de procesamiento y la velocidad que será transmitida a una unidad de procesamiento de señal ex507. Entonces, la unidad de procesamiento de señal ex507 codifica una señal de audio y/o una señal de video. Aquí, la codificación de la señal de video es la codificación descrita en cada una de las modalidades. Además, la unidad de procesamiento de señal ex507 multiplexa en algunas ocasiones los datos codificados de audio y los datos codificados de video, y un flujo 10 ex506 proporciona los datos multiplexados hacia el exterior. Los datos multiplexados proporcionado son transmitidos a la estación de base eX107, o son escritos sobre los medios de grabación ex21S. Cuando son multiplexados los conjuntos de datos, los datos deben ser temporalmente almacenados en la memoria intermedia ex508 de modo que los conjuntos de datos sean sincronizados entre sí.
Aunque la memoria exSll es un elemento exterior del LSI ex500, ésta podría ser incluida en el LSI ex500. La memoria intermedia ex508 no es limitada a una memoria intermedia, aunque podría estar compuesta de memorias intermedias. Además, el LSI ex500 podría ser elaborado en un chip o una pluralidad de chips .
Además, aunque la unidad de control ex501 incluye la CPU ex502, el controlador de memoria ex503, el controlador de flujo ex504, la unidad de control de frecuencia de excitación exS12, la configuración de la unidad de control ex501 no es limitada a estos. Por ejemplo, la unidad de procesamiento de señal ex507 además podría incluir una CPU. La inclusión de otra CPU en la unidad de procesamiento de señal ex507 puede mejorar la velocidad de procesamiento. Además, como otro ejemplo, la CPU ex502 podría servir como o ser parte de la unidad de procesamiento de señal ex507, y, por e emplo, podría incluir una unidad de procesamiento de señal de audio. En este caso, la unidad de control ex501 incluye la unidad de procesamiento de señal ex507 o la CPU ex502 que incluye una parte de la unidad de procesamiento de señal ex507.
El nombre utilizado aquí es LSI, aunque también podría ser llamado IC, sistema LSI , súper LSI, o ultra LSI dependiendo del grado de integración.
Además, los modos para conseguir la integración no son limitados al LSI, y un circuito especial o un procesador de uso general y así sucesivamente, también puede conseguir la integración. La Serie de Compuerta Programable de Campo (FPGA, por sus siglas en inglés) que puede ser programada después de la manufactura de los LSIs o un procesador que puede ser reconfigurado para permitir la reconfiguración de la conexión a la configuración de un LSI puede utilizarse para el mismo propósito.
En el futuro, con el avance en la tecnología de semiconductores, una tecnología de nueva marca podría reemplazar el LSI. Los bloques funcionales pueden ser integrados utilizando esta tecnología. La posibilidad es que la presente invención sea aplicada a la biotecnologxa.
(Modalidad 5) Cuando son decodificados los datos de video que son generados en el método de codificación de imagen en movimiento o por medio del aparato de codificación de imagen en movimiento descrito en cada una de las modalidades, si se compara cuando son decodificados los datos de video que se conforman con un estándar convencional, tal como MPEG-2, MPEG-4 AYC, y YC-1, la cantidad de procesamiento probablemente se incrementa. De esta manera, el LSI ex500 necesita ser colocado en una frecuencia de excitación más alta que la frecuencia de excitación de la CPU ex502 que será utilizada cuando son decodificados los datos de video de conformidad con el estándar convencional. Sin embargo, cuando la frecuencia de excitación es colocada más alta, existe un problema en el que se incremente el consumo de energía.
Con el propósito de resolver el problema, el aparato de decodificación de imagen en movimiento, tal como la televisión ex300 y el LSI ex500, es configurado para determinar en cuál estándar se conforman los datos de video, y el cambio entre las frecuencias de excitación de acuerdo con el estándar determinado. La Figura 30 ilustra una configuración ex800 en la presente modalidad. Una unidad de cambio de frecuencia de excitación ex503 coloca una frecuencia de excitación en una frecuencia de excitación más alta cuando son generados los datos de video por medio del método de codificación de imagen en movimiento o el aparato de codificación de imagen en movimiento que se describe en cada una de las modalidades. Entonces, la unidad de cambio de frecuencia de excitación ex503 instruye a una unidad de procesamiento de decodificación ex501 que ejecute el método de decodificación de imagen en movimiento descrito en cada una de las modalidades para decodificar los datos de video.
Cuando los datos de video se conforman en el estándar convencional, la unidad de cambio de frecuencia de excitación ex503 coloca o establece una frecuencia de excitación en una frecuencia de excitación más baja que la frecuencia de excitación de los datos de video generados por el método de codificación de imagen en movimiento o por el aparato de codificación de imagen en movimiento que se describen en cada una de las modalidades. Entonces, la unidad de cambio de frecuencia de excitación ex503 instruye a la unidad de procesamiento de decodificación ex502 que se conforma con el estándar convencional para decodificar los datos de video.
De manera más específica, la unidad de cambio de frecuencia de excitación ex503 incluye la CPU ex502 y la unidad de control de frecuencia de excitación ex512 en la Figura 29. Aquí, cada unidad de procesamiento de decodificación ex501 que ejecuta el método de decodificación de imagen en movimiento que se describe en cada una de las modalidades y cada unidad de procesamiento de decodificación ex502 que se conforma con el estándar convencional, corresponden con la unidad de procesamiento de señal ex507 en la Figura 29. La CPU ex502 determina en cuál estándar se conforman los datos de video. Entonces, la unidad de control de frecuencia de excitación ex512 determina una frecuencia de excitación en función de una señal de la CPU ex502. Además, la unidad de procesamiento de señal ex507 decodifica los datos de video en función de la señal de la CPU ex502. Por ejemplo, la información de identificación descrita en la Modalidad 3 es probablemente utilizada para identificar los datos de video. La información de identificación no es limitada a la descrita en la Modalidad 3 sino que podría ser cualquier información con la condición que la información indique en cuál estándar se conforman los datos de video. Por ejemplo, en cuál estándar se conforma en los datos de video, puede ser determinado en función de una señal externa que determina que los datos de video son utilizados para una televisión o un disco, etc., la determinación podría tomarse en función de esta señal externa. Además, la CPU ex502 selecciona una frecuencia de excitación basada, por ejemplo, en una tabla de búsqueda en la cual los estándares de los datos de video son asociados con las frecuencias de excitación como es mostrado en la Figura 32. La frecuencia de excitación puede ser seleccionada almacenando la tabla de búsqueda en la memoria intermedia ex508 y en una memoria interna de un LSI, y con referencia a la tabla de búsqueda por medio de la CPU ex502.
La Figura 31 ilustra las etapas para la ejecución de un método en la presente modalidad. En primer lugar, en la Etapa ex5200, la unidad de procesamiento de señal ex507 obtiene la información de identificación de los datos multiplexados . A continuación, en la Etapa ex5201, la CPU ex502 determina si los datos de video son generados o no por medio del método de codificación y el aparato de codificación que son descritos en cada una de las modalidades, en función de la información de identificación. Cuando los datos de video son generados por medio del método de codificación de imagen en movimiento y el aparato de codificación de imagen en movimiento descritos en cada una de las modalidades, en la Etapa ex5202, la CPU ex502 transmite a señal para el ajuste de la frecuencia de excitación en una frecuencia de excitación más alta a la unidad de control de frecuencia de excitación exS12. Entonces, la unidad de control de frecuencia de excitación exS12 coloca o establece la frecuencia de excitación en la frecuencia de excitación más alta. Por otro lado, cuando la información de identificación indica que los datos de video se conforman en el estándar convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1, en la Etapa ex5203, la CPU ex502 transmite una señal para la colocación o establecimiento de la frecuencia de excitación en una frecuencia de excitación más baja a la unidad de control de frecuencia de excitación exS12. Entonces, la unidad de control de frecuencia de excitación exS12 coloca la frecuencia de excitación en la frecuencia de excitación más baja que la frecuencia de excitación en el caso en donde son generados los datos de video por medio del método de codificación de imagen en movimiento y el aparato de codificación de imagen en movimiento que se describen en cada modalidad.
Además, junto con el cambio de las frecuencias de excitación, puede ser mejorado el efecto de conservación de energía cambiando la tensión que será aplicada al LSI ex500 o al aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia de excitación es colocada o establecida más baja, la tensión que será aplicada al LSI ex500 o al aparato que incluye el LSI ex500 es probablemente colocada en una tensión más baja que la de la tensión en el caso en donde la frecuencia de excitación es colocada más alta.
Además, cuando es más grande la cantidad de procesamiento para la decodificación, la frecuencia de excitación podría ser colocada más alta, y cuando es más pequeña la cantidad de procesamiento para la decodificación, la frecuencia de excitación podría ser colocada más baja como el método de ajuste de la frecuencia de excitación. De esta manera, el método de colocación o establecimiento no es limitado a los métodos descritos con anterioridad. Por ejemplo, cuando es más grande la cantidad de procesamiento para la decodificación de los datos de video de conformidad con MPEG-4 AVC que la cantidad de procesamiento para la decodificación de los datos de video generados por medio del método de codificación de imagen en movimiento y del aparato de codificación de imagen en movimiento que se describen en cada una de las modalidades, la frecuencia de excitación es probablemente colocada en un orden inverso a la colocación que se describe con anterioridad.
Además, el método de ajuste de la frecuencia de excitación no se limita al método de ajuste de la frecuencia de excitación más baja. Por ejemplo, cuando la información de identificación indica que los datos de video son generados por medio del método de codificación de imagen en movimiento y del aparato de codificación de imagen en movimiento que se describen en cada una de las modalidades, la tensión que será aplicada al LSI ex500 o al aparato que incluye el LSI ex500 es probablemente colocada más alta. Cuando la información de identificación indica que los datos de video se conforman en el estándar convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1, la tensión que será aplicada al LSI ex500 o al aparato que incluye el LSI ex500 es probablemente colocada más baja. Como otro ejemplo, cuando la información de identificación indica que los datos de video son generados por medio del método de codificación de imagen en movimiento y del aparato de codificación de imagen en movimiento que se describen en cada una de las modalidades, la excitación de la CPU ex502 no tiene que ser probablemente suspendida. Cuando la información de identificación indica que los datos de video se conforman en el estándar convencional, tal como MPEG-2, MPEG- AVC, y VC-1, la excitación de la CPU ex502 es probablemente suspendida en un tiempo dado debido a que la CPU ex502 tiene una capacidad adicional de procesamiento. Aún cuando la información de identificación indica que los datos de video son generados por medio del método de codificación de imagen en movimiento y del aparato de codificación de imagen en movimiento que se describen en cada una de las modalidades, en el caso en donde la CPU ex502 tiene una capacidad adicional de procesamiento, la excitación de la CPU ex502 es probablemente suspendida en un tiempo dado. En este caso, el tiempo de suspensión es probablemente colocado más corto que el tiempo de suspensión en el caso cuando la información de identificación indica que los datos de video se conforman en el estándar convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1.
En consecuencia, puede ser mejorado el efecto de conservación de energía cambiando, entre las frecuencias de excitación de acuerdo con el estándar en el cual se conforman los datos de video. Además, cuando el LSI ex500 o el aparato que incluye el LSI ex500 es excitado utilizando una batería, la vida de la batería puede ser extendida con el efecto de conservación de energía.
(Modalidad 6) Existen casos en donde una pluralidad de los datos de video que se conforma con diferentes estándares, es proporcionada a los dispositivos y sistemas, tales como una televisión y un teléfono móvil. Con el propósito de permitir la decodificación de la pluralidad de los datos de video que se conforman con los diferentes estándares, la unidad de procesamiento de señal ex507 del LSI ex500 necesita conformarse en los diferentes estándares. Sin embargo, los problemas de incremento en la escala del circuito del LSI ex500 y del incremento en el costo se generan con el uso individual de las unidades de procesamiento de señal ex507 que se conforman en los respectivos estándares.
Con el propósito de resolver el problema, lo que es concebido es una configuración en la cual la unidad de procesamiento de decodificación para la implementación del método de decodificación de imagen en movimiento descrito en cada una de las modalidades y la unidad de procesamiento de decodificación que se conforma con el estándar convencional, tal como MPEG-2, MPEG- AVC, y VC-1 son parcialmente compartidas. La configuración Ex900 en la Figura 33? muestra un ejemplo de la configuración. Por ejemplo, el método de decodificación de imagen en movimiento descrito en cada una de las modalidades y el método de decodificación de imagen en movimiento que se conforma con MPEG-4 AVC tienen, parcialmente en común, los detalles de procesamiento, tales como la codificación de entropía, la cuantificación inversa, el filtrado de desbloqueo, y la predicción compensada de movimiento. Los detalles de procesamiento que serán probablemente compartidos incluyen el uso de una unidad de procesamiento de decodificación ex902 que se conforma con MPEG- AVC. En contraste, una unidad de procesamiento de decodificación dedicada ex901 es probablemente utilizada para otro procesamiento único para la presente invención. Debido a que la presente invención es caracterizada por el procesamiento de intra-predicción en particular, por ejemplo, la unidad de procesamiento de decodificación dedicada ex901 es utilizada para el procesamiento de intra-predicción. De otro modo, la unidad de procesamiento de decodificación es probablemente compartida para una de la codificación de entropía, la cuantificación inversa, el filtrado de desbloqueo, y la compensación de movimiento, o para todo el procesamiento. La unidad de procesamiento de decodificación para la implementación del método de decodificación de. imagen en movimiento descrito en cada una de las modalidades podría ser compartida para el procesamiento que será compartido, y una unidad de procesamiento de decodificación dedicada podría ser utilizada para el procesamiento único para el estándar de MPEG-4 AVC.
Además, el procesamiento exlOOO en la Figura 33B muestra otro ejemplo en el que el procesamiento es parcialmente compartido. Este ejemplo utiliza una configuración que incluye una unidad de procesamiento de decodificación dedicada exlOOl que soporta el procesamiento único en la presente invención, una unidad de procesamiento de decodificación dedicada exl002 que soporta el procesamiento único para otro estándar convencional, y una unidad de procesamiento de decodificación exl003 que soporta el procesamiento que será compartido entre el método de decodificación de imagen en movimiento en la presente invención y el método convencional de decodificación de imagen en movimiento. Aquí, las unidades de procesamiento de decodificación dedicada exlOOl y exl002 no son necesariamente especializadas para el procesamiento de la presente invención y el procesamiento del estándar convencional, de manera respectiva, y podrían ser capaces de implementar el procesamiento general. Además, la configuración de la presente modalidad puede ser implementada por medio del LSI ex500.
Como tal, la reducción de la escala del circuito de un LSI y la reducción del costo son posibles compartiendo la unidad de procesamiento de decodificación para que el procesamiento sea compartido entre el método de decodificación de imagen en movimiento en la presente invención y el método de decodificación de imagen en movimiento de conformidad con el estándar convencional.
Aplicabilidad Industrial La presente invención es aplicable a los métodos de filtrado, a los aparatos de codificación de imagen en movimiento y a los aparatos de decodificación de imagen en movimiento. Por ejemplo, la presente invención es aplicable a los aparatos de visualización de imagen de alta definición y a los aparatos de captura de imagen tales como receptores de televisión, grabadoras de video digital, sistemas de navegación de automóvil, cámaras digitales y cámaras de video digital .
Lista de Signos de Referencia 100 Aparato de codificación de imagen en movimiento 101 Subtractor 102 Unidad de transformada ortogonal 103 Unidad de cuantificación 104, 204 Unidad de cuantificación inversa 105, 205 Unidad de transformada ortogonal inversa 106, 206 Adicionador 107, 207, 301, 302, 311, 322, 323, 332, 342, 343, 344, 351, 352, 353, 361, 362, 372, Unidad de filtro 108, 112, 208, 312, 324, 333, 354, 363, 371 Unidad de selección 109, 209, 373 Memoria 110, 210 Unidad de predicción 111 Unidad de codificación de longitud variable 113, 213 Unidad de control 115, 215 Unidad de filtrado 120 Señal de imagen de entrada 121 Señal residual 122, 124, 224 Coeficiente de transformada 123, 223 Coeficiente cuantificado 125, 225 Señal residual decodificada 126, 226 Señal de imagen decodificada 127, 128, 227, 228 Señal de imagen 130, 230 Señal de imagen de predicción 131 Señal codificada 132, 232 Flujo codificado de bits 200 Aparato de decodificación de imagen en movimiento 211 Unidad de decodificación de longitud variable 212, 321, 331, 341 Unidad de distribución 220 Señal de imagen de salida Se hace constar que con relación a esta fecha el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (11)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones:
1. Un método de filtrado del filtrado de una pluralidad de bloques incluidos en una imagen, caracterizado porque comprende : determinar si cada uno de los bloques es o no un bloque de Modulación de Código de Intra Impulso (IPCM) ; filtrar un bloque sin-IPCM que no es el bloque IPCM fuera de los bloques para generar datos filtrados; y dar salida a los datos filtrados como un valor de un píxel en el bloque sin-IPCM, y dar salida, como un valor de un píxel en el bloque IPCM, a un valor no filtrado del píxel en el bloque IPCM.
2. El método de filtrado de conformidad con la reivindicación 1, caracterizado porque, en el filtrado, los datos filtrados del bloque sin-IPCM son generados al realizar el filtrado utilizando tanto el valor del píxel en el bloque IPCM como el valor del píxel en el bloque sin-IPCM.
3. El método de filtrado de conformidad con una de la reivindicación 1 y 2, caracterizado porque el filtrado es el filtrado de desbloqueo, en el filtrado, los primeros datos filtrados son generados filtrando un primer bloque sin IPCM de un primer bloque IPCM y el primer bloque sin IPCM que son adyacentes entre sí, y en la salida, los primeros datos filtrados son salidos como un valor de un píxel en el primer bloque sin IPCM, y un valor no filtrado de píxel en el primer bloque IPCM es salido como un valor del píxel en el primer bloque IPCM.
4. El método de filtrado de conformidad con cualquiera de las reivindicaciones 1-3, caracterizado porque, en el filtrado, sólo el bloque sin-IPCM salido de los bloques es filtrado, y el bloque IPCM no es filtrado.
5. El método de filtrado de conformidad con cualquiera de las reivindicaciones 1-3, caracterizado porque, en el filtrado, los datos filtrados son generados mediante el filtrado de todos los bloques, y en la salida, un valor filtrado del píxel en el bloque IPCM en los datos filtrados es reemplazado por el valor no filtrado del píxel en el bloque IPCM.
6. Un método de filtrado del filtrado de un límite entre un bloque de Modulación de Código de Intra Impulso (IPCM) y un bloque sin-IPCM que son adyacentes entre sí en una imagen, caracterizado porque comprende: ajustar una primera intensidad de filtro para el bloque sin-IPCM, y ajustar una segunda intensidad de filtro para el bloque IPCM, la segunda intensidad de filtro es más baja que la primera intensidad de filtro; y filtrar el bloque sin-IPCM utilizando la primera intensidad de filtro, y filtrar el bloque IPCM utilizando la segunda intensidad de filtro.
7. El método de filtrado de conformidad con la reivindicación 6, caracterizado porque la segunda intensidad de filtro especifica que el filtrado es saltado.
8. El método de filtrado de conformidad con una de la reivindicación 6 y 7, caracterizado porque la primera intensidad de filtro es más baja que una intensidad de filtro que es determinada cuando el bloque sin-IPCM es un bloque que será intra-codificado.
9. Un aparato de codificación de imagen en movimiento que codifica una señal de imagen de entrada para generar un flujo codificado de bits, caracterizado porque comprende ·. un substractor que sustrae una señal de imagen de predicción de la señal de imagen de entrada para generar una señal residual; una unidad de transformada y cuantificación que es configurada para transformar y cuantificar la señal residual para generar un coeficiente cuantificado ; una unidad de codificación configurada para codificar el coeficiente cuantificado para generar una señal codificada; una unidad de selección configurada para: (i) seleccionar la señal de imagen de entrada y dar salida a la señal seleccionada como el flujo codificado de bits cuando un bloque actual es un bloque IPCM que pertenece a un bloque de tipo-IPCM; e (ii) seleccionar la señal codificada y dar salida a la señal seleccionada como el flujo codificado de bits cuando un bloque actual es un bloque sin-IPCM que no es el bloque IPCM; una unidad de cuantificación inversa y de transformada inversa que es configurada para realizar la cuantificación inversa y la transformada inversa en el coeficiente cuantificado para generar una señal residual decodificada; un adicionador que agrega la señal de imagen de predicción a la señal residual decodificada para generar una señal de imagen decodificada; una unidad de filtrado configurada para generar una primera señal de imagen realizando el filtrado de conformidad con la reivindicación 1 utilizando (i) un valor de píxel en la señal de imagen decodificada como el valor del píxel en el bloque sin-IPCM e (ii) un valor de píxel en la señal de imagen de entrada como el valor del píxel en el bloque IPCM; una memoria en la cual es almacenada la primera señal de imagen; y una unidad de predicción configurada para generar la señal de imagen de predicción al realizar la predicción utilizando la primera señal de imagen almacenada en la memori .
10. Un aparato de decodificación de imagen en movimiento que decodifica un flujo codificado de bits para generar una señal de imagen de salida, caracterizado porque comprende : una unidad de decodificación configurada para decodificar el flujo codificado de bits para generar un coeficiente cuantificado; una unidad de cuantificación inversa y de transformada inversa que es configurada para realizar la cuantificación inversa y la transformada inversa en el coeficiente cuantificado para generar una señal residual decodificada; un adicionador que agrega una señal de imagen de predicción a la señal residual decodificada para generar una señal de imagen decodificada; una unidad de filtrado configurada para generar una primera señal de imagen al realizar el filtrado de conformidad con la reivindicación 1 utilizando (i) un valor de píxel en la señal de imagen decodificada como el valor del píxel en el bloque sin-IPCM e (ii) un valor de píxel en el flujo codificado de bits como el valor del píxel en el bloque IPCM; una memoria en la cual es almacenada la primera señal de imagen; y una unidad de predicción configurada para generar la señal de imagen de predicción al realizar la predicción utilizando la primera señal de imagen almacenada en la memoria.
11. Un aparato de codificación y decodificación de imagen en movimiento caracterizado porque comprende: el aparato de codificación de imagen en movimiento de conformidad con la reivindicación 9; y el aparato de decodificación de imagen en movimiento de conformidad con la reivindicación 10.
MX2013000093A 2011-02-22 2012-02-21 Metodo de filtro, dispositivo de codificacion de imagen dinamica, dispositivo de decodificacion de imagen dinamica y dispositivo de codificacion y decodificacion de imagen dinamica. MX2013000093A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161445115P 2011-02-22 2011-02-22
PCT/JP2012/001167 WO2012114724A1 (ja) 2011-02-22 2012-02-21 フィルタ方法、動画像符号化装置、動画像復号装置及び動画像符号化復号装置

Publications (1)

Publication Number Publication Date
MX2013000093A true MX2013000093A (es) 2013-02-27

Family

ID=46652730

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013000093A MX2013000093A (es) 2011-02-22 2012-02-21 Metodo de filtro, dispositivo de codificacion de imagen dinamica, dispositivo de decodificacion de imagen dinamica y dispositivo de codificacion y decodificacion de imagen dinamica.

Country Status (15)

Country Link
US (5) US9826230B2 (es)
EP (1) EP2680583B1 (es)
JP (4) JP5342069B2 (es)
KR (5) KR102215469B1 (es)
CN (3) CN105245903B (es)
AU (2) AU2012221587B9 (es)
BR (1) BR112012021600B1 (es)
CA (2) CA2801215C (es)
ES (1) ES2669978T3 (es)
HU (1) HUE038308T2 (es)
LT (1) LT2680583T (es)
MX (1) MX2013000093A (es)
PL (1) PL2680583T3 (es)
TW (3) TWI547152B (es)
WO (1) WO2012114724A1 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110123651A (ko) * 2010-05-07 2011-11-15 한국전자통신연구원 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
KR102215469B1 (ko) * 2011-02-22 2021-02-16 타지반 투 엘엘씨 필터 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치
RU2594489C2 (ru) 2011-02-22 2016-08-20 Сан Пэтент Траст Способ кодирования изображения, способ декодирования изображения, устройство кодирования изображения, устройство декодирования изображения и устройство кодирования и декодирования изображения
US20120230423A1 (en) * 2011-03-10 2012-09-13 Esenlik Semih Line memory reduction for video coding and decoding
CN107249131B (zh) * 2011-03-30 2020-04-24 Lg 电子株式会社 视频解码装置和视频编码装置
EP2736253B1 (en) * 2011-07-19 2020-03-11 Tagivan Ii Llc Filtering method, moving image decoding method, moving image encoding method, moving image decoding apparatus, moving image encoding apparatus, and moving image encoding/decoding apparatus
EP3767948A1 (en) * 2012-01-17 2021-01-20 Huawei Technologies Co., Ltd. In-loop filtering for lossless coding mode in high efficiency video coding
GB2503658B (en) * 2012-06-29 2015-07-01 Canon Kk Method and device for encoding and decoding data in a video encoder and a video decoder
AU2014202921B2 (en) 2014-05-29 2017-02-02 Canon Kabushiki Kaisha Method, apparatus and system for de-blocking a block of video samples
JP6413381B2 (ja) * 2014-06-19 2018-10-31 日油株式会社 ゲル状栄養組成物
TWI774750B (zh) * 2017-04-06 2022-08-21 美商松下電器(美國)知識產權公司 編碼裝置、解碼裝置、編碼方法及解碼方法
TW201842768A (zh) * 2017-04-06 2018-12-01 美商松下電器(美國)知識產權公司 編碼裝置、解碼裝置、編碼方法及解碼方法
WO2020218793A1 (ko) * 2019-04-20 2020-10-29 엘지전자 주식회사 Bdpcm에 기반한 영상 코딩 방법 및 그 장치

Family Cites Families (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1983000570A1 (fr) 1981-07-30 1983-02-17 Müller, Hans Procede de tramage d'images en demi-teinte
US5178418A (en) 1991-06-25 1993-01-12 Canadian Bank Note Co., Ltd. Latent images comprising phase shifted micro printing
AU699124B2 (en) 1994-11-01 1998-11-26 De La Rue Giori S.A. Method of generating a security design with the aid of electronic means
US6104812A (en) 1998-01-12 2000-08-15 Juratrade, Limited Anti-counterfeiting method and apparatus using digital screening
US6377706B1 (en) 1998-05-12 2002-04-23 Xerox Corporation Compression framework incorporating decoding commands
US6473516B1 (en) 1998-05-22 2002-10-29 Asa Systems, Inc. Large capacity steganography
JP4666865B2 (ja) 1999-12-23 2011-04-06 インスティテュート ナシオナル ド ラ ルシェルシュ サイエンティフィーク Cdmaシステムにおける干渉抑制
US6615890B1 (en) * 2000-06-09 2003-09-09 Venture Tape Corp. Tape applicator for glazing applications
US6692030B1 (en) 2000-07-21 2004-02-17 Verify First Technologies, Inc. Security document with nano-pattern
DE10044403A1 (de) 2000-09-08 2002-03-21 Giesecke & Devrient Gmbh Datenträger mit Stichtiefdruckbild und Verfahren zur Umsetzung von Bildmotiven in Linienstrukturen sowie in eine Stichtiefdruckplatte
US6931062B2 (en) * 2001-04-11 2005-08-16 Koninklijke Philips Electronics N.V. Decoding system and method for proper interpolation for motion compensation
MXPA03006640A (es) 2001-11-29 2003-10-15 Matsushita Electric Industrial Co Ltd Metodo para la remocion de la distorsion de la codificacion, metodo codificador de video, metodo descodificador de video y aparato y programa para los mismos.
DK2938071T3 (en) 2001-11-29 2018-01-22 Godo Kaisha Ip Bridge 1 METHOD OF REMOVING CODING PREVENTION
JP4130783B2 (ja) 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
EP3540946A1 (en) 2002-04-26 2019-09-18 NTT DoCoMo, Inc. Signal decoding method
JP4144258B2 (ja) 2002-05-29 2008-09-03 ソニー株式会社 画像出力装置及び画像出力方法
EP3223186B1 (en) 2002-07-09 2021-03-31 Smartrac Technology Fletcher, Inc. System and method for providing secure identification solutions
CN100358366C (zh) 2002-07-11 2007-12-26 松下电器产业株式会社 滤波强度的决定方法、动态图像编码方法及解码方法
EP1551644A4 (en) 2002-10-15 2008-01-02 Digimarc Corp IDENTIFICATION DOCUMENT AND RELATED METHODS
US6922492B2 (en) 2002-12-27 2005-07-26 Motorola, Inc. Video deblocking method and apparatus
US8223393B2 (en) 2003-03-31 2012-07-17 Eastman Kodak Company Post rip image rendering for microprinting
WO2004104779A2 (en) 2003-05-16 2004-12-02 Digimarc Corporation Identification document usable with d2t2 printing
CA2524031C (en) * 2003-05-20 2015-07-07 Interlego Ag Method and system for manipulating a digital representation of a three-dimensional object
EP1646966A4 (en) 2003-07-17 2008-12-31 Digimarc Corp UNIQUE LINKING SECURITY ELEMENTS IN IDENTIFICATION DOCUMENTS
AU2004301091B2 (en) 2003-08-19 2008-09-11 Panasonic Corporation Method for encoding moving image and method for decoding moving image
US7457362B2 (en) 2003-10-24 2008-11-25 Texas Instruments Incorporated Loop deblock filtering of block coded video in a very long instruction word processor
KR101000926B1 (ko) 2004-03-11 2010-12-13 삼성전자주식회사 영상의 불연속성을 제거하기 위한 필터 및 필터링 방법
CN101778235B (zh) 2004-04-28 2013-06-19 松下电器产业株式会社 运动画面产生装置,编码装置,解码装置及多路复用装置
US20050243914A1 (en) 2004-04-29 2005-11-03 Do-Kyoung Kwon Adaptive de-blocking filtering apparatus and method for mpeg video decoder
US8085846B2 (en) 2004-08-24 2011-12-27 Thomson Licensing Method and apparatus for decoding hybrid intra-inter coded blocks
US7630902B2 (en) * 2004-09-17 2009-12-08 Digital Rise Technology Co., Ltd. Apparatus and methods for digital audio coding using codebook application ranges
US7450121B2 (en) 2004-10-19 2008-11-11 Canon Kabushiki Kaisha Dynamic bit depth rendering
US20060126744A1 (en) * 2004-12-10 2006-06-15 Liang Peng Two pass architecture for H.264 CABAC decoding process
KR100679035B1 (ko) * 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
JP4148228B2 (ja) 2005-02-10 2008-09-10 ソニー株式会社 画像記録装置、画像再生制御装置、画像記録再生制御装置、これらの装置の処理方法およびその方法をコンピュータに実行させるプログラム
US8625914B2 (en) 2013-02-04 2014-01-07 Sony Corporation Image processing system, image processing method and program
JP4784188B2 (ja) 2005-07-25 2011-10-05 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
WO2007116551A1 (ja) 2006-03-30 2007-10-18 Kabushiki Kaisha Toshiba 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
JP5017555B2 (ja) 2006-04-10 2012-09-05 株式会社メガチップス 画像符号化装置及び画像復号化装置
EP1844929A1 (fr) 2006-04-13 2007-10-17 Kba-Giori S.A. Procédé de génération de motifs représentant une image en demi-teintes
US7965422B2 (en) 2006-04-28 2011-06-21 Xerox Corporation Super resolution encoded microprinting through postscript
JP4584871B2 (ja) 2006-06-09 2010-11-24 パナソニック株式会社 画像符号化記録装置および画像符号化記録方法
US8036270B2 (en) * 2006-07-27 2011-10-11 Sharp Laboratories Of America, Inc. Intra-frame flicker reduction in video coding
JP2008042497A (ja) 2006-08-04 2008-02-21 Seiko Epson Corp デコード装置、情報再生装置及び電子機器
JP5093877B2 (ja) 2006-09-29 2012-12-12 株式会社ユニバーサルエンターテインメント 紙葉識別装置
KR100827106B1 (ko) * 2006-10-20 2008-05-02 삼성전자주식회사 디블록킹 필터에서의 필터 조건 영역 판별을 위한 장치 및방법
CN101589625B (zh) 2006-10-25 2011-09-21 弗劳恩霍夫应用研究促进协会 质量可缩放编码
CN101193305B (zh) 2006-11-21 2010-05-12 安凯(广州)微电子技术有限公司 用于视频编解码芯片中帧内预测的数据存储和交换方法
KR100837410B1 (ko) 2006-11-30 2008-06-12 삼성전자주식회사 주관적인 무손실 이미지 데이터 압축 방법 및 장치
CN101290774B (zh) * 2007-01-31 2011-09-07 广州广晟数码技术有限公司 音频编码和解码系统
US8767834B2 (en) * 2007-03-09 2014-07-01 Sharp Laboratories Of America, Inc. Methods and systems for scalable-to-non-scalable bit-stream rewriting
TW200845723A (en) 2007-04-23 2008-11-16 Thomson Licensing Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal
WO2009002313A1 (en) 2007-06-27 2008-12-31 Thomson Licensing Enhancing image quality
ES2416056T3 (es) 2007-07-06 2013-07-30 France Telecom Codificación jerárquica de señales digitales de audio
JP2009017505A (ja) 2007-07-09 2009-01-22 Toshiba Corp 画像圧縮装置、画像伸張装置及び画像処理装置
US20090020999A1 (en) 2007-07-17 2009-01-22 Jimmy Kendrick Security documents and methods of deterring counterfeiting
US20090021000A1 (en) 2007-07-17 2009-01-22 Mccartney Larry G Security documents and methods of deterring counterfeiting
US20090315319A1 (en) 2007-07-17 2009-12-24 Jimmy Kendrick Security documents and methods of deterring counterfeiting
CN101933331B (zh) 2007-09-06 2014-04-09 日本电气株式会社 视频编码装置、视频编码方法、视频解码方法
CN101389016B (zh) 2007-09-13 2010-10-20 华为技术有限公司 获得块边界强度和去除块效应的方法和装置
BRPI0818444A2 (pt) * 2007-10-12 2016-10-11 Qualcomm Inc codificação adaptativa de informação de cabeçalho de bloco de vídeo
BRPI0818649A2 (pt) * 2007-10-16 2015-04-07 Thomson Licensing Métodos e aparelho para codificação e decodificação de vídeo em superblocos geometricamente particionados.
US8477847B2 (en) 2007-12-17 2013-07-02 Vixs Systems, Inc. Motion compensation module with fast intra pulse code modulation mode decisions and methods for use therewith
US9225996B2 (en) 2007-12-19 2015-12-29 Vixs Systems, Inc. Motion refinement engine with flexible direction processing and methods for use therewith
US8743972B2 (en) 2007-12-20 2014-06-03 Vixs Systems, Inc. Coding adaptive deblocking filter and method for use therewith
JP2011509631A (ja) 2008-01-11 2011-03-24 トムソン ライセンシング ビデオおよび奥行きの符号化
JP5593596B2 (ja) 2008-02-04 2014-09-24 ソニー株式会社 映像信号送信装置および映像信号送信方法
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
US9788018B2 (en) 2008-06-30 2017-10-10 Microsoft Technology Licensing, Llc Error concealment techniques in video decoding
TWI386068B (zh) 2008-10-22 2013-02-11 Nippon Telegraph & Telephone 解塊處理方法、解塊處理裝置、解塊處理程式及記錄該程式之可由電腦讀取之記錄媒體
TW201028018A (en) * 2009-01-07 2010-07-16 Ind Tech Res Inst Encoder, decoder, encoding method and decoding method
JP5126096B2 (ja) 2009-02-05 2013-01-23 日本電気株式会社 画像符号化処理方法、画像符号化処理装置、画像符号化プログラム
WO2010125606A1 (en) 2009-04-29 2010-11-04 Aspa-Japan Co., Ltd. Method for image data compression and compression system of image data
TWI400955B (zh) 2009-07-20 2013-07-01 Mstar Semiconductor Inc 一種去區塊裝置及方法
CN101621692B (zh) 2009-07-27 2011-04-20 宁波大学 一种基于预测模式的h.264/avc视频信息隐藏方法
BRPI1005386A2 (pt) 2009-09-22 2016-03-08 Panasonic Corp aparelho de codificação de imagem, aparelho de decodificação de imagem, método de codificação de imagem e método de decodificação de imagem
ES3033649T3 (en) 2010-07-13 2025-08-06 Nec Corp Video decoder, video decoding method, and program with variable pixel bit length information
US8896647B2 (en) 2010-11-08 2014-11-25 U-Nica Technology Ag Method and device for producing colour images by way of a UV laser on pigmented substrates, and products produced as a result
CN105611296B (zh) 2010-11-26 2018-08-14 日本电气株式会社 视频解码设备、视频解码方法
US9100621B2 (en) 2010-12-08 2015-08-04 Lg Electronics Inc. Intra prediction in image processing
WO2012086203A1 (ja) 2010-12-22 2012-06-28 パナソニック株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
CN102025997A (zh) 2010-12-22 2011-04-20 中兴通讯股份有限公司 隐藏信息的方法和装置、提取隐藏信息的方法和装置
JP5850214B2 (ja) 2011-01-11 2016-02-03 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
KR102215469B1 (ko) 2011-02-22 2021-02-16 타지반 투 엘엘씨 필터 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치
RU2594489C2 (ru) 2011-02-22 2016-08-20 Сан Пэтент Траст Способ кодирования изображения, способ декодирования изображения, устройство кодирования изображения, устройство декодирования изображения и устройство кодирования и декодирования изображения
US9652814B2 (en) 2011-03-29 2017-05-16 Jura Trade, Limited Method and apparatus for generating and authenticating security documents
CN107249131B (zh) 2011-03-30 2020-04-24 Lg 电子株式会社 视频解码装置和视频编码装置
JP5942990B2 (ja) 2011-05-27 2016-06-29 ソニー株式会社 画像処理装置および方法
EP2713612A4 (en) 2011-06-28 2014-11-26 Samsung Electronics Co Ltd PROCESS AND DEVICE FOR IMAGE CODING AND DECODING USING ADAPTIVE QUANTIZATION PARAMETER DIFFERENTIALS
US9510020B2 (en) 2011-10-20 2016-11-29 Qualcomm Incorporated Intra pulse code modulation (IPCM) and lossless coding mode deblocking for video coding
US9161046B2 (en) 2011-10-25 2015-10-13 Qualcomm Incorporated Determining quantization parameters for deblocking filtering for video coding

Also Published As

Publication number Publication date
US20120213274A1 (en) 2012-08-23
US20180249165A1 (en) 2018-08-30
CN105245904B (zh) 2018-09-18
JP2014003660A (ja) 2014-01-09
US20200077101A1 (en) 2020-03-05
KR102215469B1 (ko) 2021-02-16
WO2012114724A1 (ja) 2012-08-30
TWI547152B (zh) 2016-08-21
TW201611588A (zh) 2016-03-16
EP2680583A4 (en) 2016-01-20
KR102030977B1 (ko) 2019-10-10
AU2012221587B2 (en) 2017-06-01
JP2014003659A (ja) 2014-01-09
US10511844B2 (en) 2019-12-17
KR102112241B1 (ko) 2020-05-19
HUE038308T2 (hu) 2018-10-29
CN105245904A (zh) 2016-01-13
CA2801215A1 (en) 2012-08-30
PL2680583T3 (pl) 2018-08-31
KR20190112836A (ko) 2019-10-07
BR112012021600A2 (pt) 2020-06-16
US20140105294A1 (en) 2014-04-17
CN105245903B (zh) 2018-09-07
AU2017203193B2 (en) 2018-04-26
KR20130139220A (ko) 2013-12-20
EP2680583A1 (en) 2014-01-01
TW201242370A (en) 2012-10-16
CN102907097B (zh) 2016-01-20
CA3027092C (en) 2019-12-31
ES2669978T3 (es) 2018-05-29
CA3027092A1 (en) 2012-08-30
JPWO2012114724A1 (ja) 2014-07-07
CN105245903A (zh) 2016-01-13
AU2012221587B9 (en) 2017-10-12
LT2680583T (lt) 2018-07-10
CN102907097A (zh) 2013-01-30
KR20200055153A (ko) 2020-05-20
US10798391B2 (en) 2020-10-06
JP5422773B2 (ja) 2014-02-19
KR20200143512A (ko) 2020-12-23
JP5843818B2 (ja) 2016-01-13
KR101954461B1 (ko) 2019-03-05
KR20190021478A (ko) 2019-03-05
EP2680583B1 (en) 2018-04-11
JP5559918B2 (ja) 2014-07-23
AU2012221587A1 (en) 2013-01-10
AU2012221587A2 (en) 2013-01-24
US20170280146A1 (en) 2017-09-28
AU2017203193A1 (en) 2017-06-08
JP2014017847A (ja) 2014-01-30
TWI562643B (en) 2016-12-11
BR112012021600B1 (pt) 2021-02-09
TWI574555B (zh) 2017-03-11
US9826230B2 (en) 2017-11-21
KR102194079B1 (ko) 2020-12-23
US9729874B2 (en) 2017-08-08
CA2801215C (en) 2020-06-30
TW201611589A (zh) 2016-03-16
JP5342069B2 (ja) 2013-11-13
US10015498B2 (en) 2018-07-03

Similar Documents

Publication Publication Date Title
CA2840036C (en) Image processing method and image processing apparatus
CN103703774B (zh) 滤波方法、解码方法、以及编码方法
AU2012277160B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device
AU2017203193B2 (en) Filtering method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
MX2013014752A (es) Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
MX2013015086A (es) Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes.

Legal Events

Date Code Title Description
FG Grant or registration
PD Change of proprietorship

Owner name: TAGIVAN II, LLC