[go: up one dir, main page]

ES2535957T3 - Dispositivo de codificación de imágenes, dispositivo de descodificación de imágenes y sus métodos - Google Patents

Dispositivo de codificación de imágenes, dispositivo de descodificación de imágenes y sus métodos Download PDF

Info

Publication number
ES2535957T3
ES2535957T3 ES10165422.6T ES10165422T ES2535957T3 ES 2535957 T3 ES2535957 T3 ES 2535957T3 ES 10165422 T ES10165422 T ES 10165422T ES 2535957 T3 ES2535957 T3 ES 2535957T3
Authority
ES
Spain
Prior art keywords
image
frame
field
weighting factor
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES10165422.6T
Other languages
English (en)
Inventor
Shinya Kadono
Satoshi Kondo
Kiyofumi Abe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Application granted granted Critical
Publication of ES2535957T3 publication Critical patent/ES2535957T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un aparato de codificación de imágenes que codifica una imagen de una forma de bloque a bloque, comprendiendo el aparato de codificación de imágenes: una unidad de compensación de movimiento configurada para generar, cuando se realiza una codificación de tramas sobre un bloque que está incluido en la imagen, una imagen predictiva usando i) valores de píxel de una trama de referencia a la que hace referencia el bloque y ii) un factor de ponderación de tramas, y para generar, cuando se realiza una codificación de campos sobre el bloque, una imagen predictiva usando i) valores de píxel de un campo de referencia al que hace referencia el bloque y ii) un factor de ponderación de campos; y una unidad de codificación de longitud variable configurada para codificar solo el factor de ponderación de tramas sin codificar el factor de ponderación de campos y emitir una señal codificada que incluye i) una imagen codificada que se genera usando la imagen predictiva y ii) el factor de ponderación de tramas codificado, cuando la imagen tiene una estructura de tramas y la conmutación entre la codificación de tramas y la codificación de campos se realiza de forma adaptativa por bloque que está incluido en la imagen, en donde el factor de ponderación de campos se genera a partir el factor de ponderación de tramas cuando la imagen tiene la estructura de tramas y la conmutación entre la codificación de tramas y la codificación de campos se realiza de forma adaptativa por bloque que está incluido en la imagen.

Description

Dispositivo de codificación de imágenes, dispositivo de descodificación de imágenes y sus métodos
5 Campo de la técnica
La presente invención se refiere a un aparato de codificación y a un aparato de descodificación para codificar y descodificar imágenes en movimiento, en especial a un aparato de codificación de imágenes y a un aparato de descodificación de imágenes para realizar una estimación de movimiento usando factores de ponderación y los métodos de los mismos.
Antecedentes de la técnica
Recientemente, con la llegada de la época de la multimedia que maneja de forma integral audio, imagen, otros
15 contenidos o similares, en la actualidad es posible obtener o transmitir la información transportada por los medios de información existentes, es decir, periódicos, revistas, TV, radios y teléfonos y otros medios, usando un único terminal. Hablando en términos generales, multimedia se refiere a algo que se representa en asociación no solo con caracteres sino también con gráficos, audio y en especial imágenes y similares de forma conjunta. No obstante, con el fin de incluir los medios de información existentes que se han mencionado en lo que antecede en el alcance de la multimedia, aparece como un prerrequisito la representación de tal información en forma digital.
No obstante, cuando se estima la cantidad de información que está contenida en cada uno de los medios de información que se han mencionado en lo que antecede como la cantidad de información digital, la cantidad de información por carácter requiere 1 ~ 2 bytes mientras que el audio requiere más de 64 kbits (calidad de teléfono)
25 por segundo y cuando se trata de la imagen en movimiento, esta requiere más de 100 Mbits (la calidad de recepción de televisión) por segundo. Por lo tanto, no es realista manejar la vasta información directamente en forma digital por medio de los medios de información que se han mencionado en lo que antecede. Por ejemplo, ya se ha puesto en uso práctico un videoteléfono por medio de Red Digital de Servicios Integrados (ISDN, Integrated Services Digital Network) con una tasa de transmisión de 64 kbps ~ 1,5 Mbps, no obstante, no es práctico transmitir la imagen en movimiento que se captura en la pantalla de TV o que se filma por una cámara de TV.
Por lo tanto, esto requiere técnicas de compresión de información, y por ejemplo, en el caso del videoteléfono se usan técnicas de compresión de imágenes en movimiento conformes a las normas H.261 y H.263 normalizadas a nivel internacional por la UIT-T (Unión Internacional de Telecomunicaciones -Sector de Normalización de las
35 Telecomunicaciones). De acuerdo con técnicas de compresión de información conformes a la norma MPEG-1, en un CD (Compact Disc, disco compacto) de música ordinario puede almacenarse información de imagen así como información de música.
La norma MPEG (Moving Picture Experts Group, grupo de expertos en imágenes en movimiento) es una norma internacional para la compresión de señales de imágenes en movimiento y MPEG-1 es una norma que comprime señales de imágenes en movimiento hasta 1,5 Mbps, de decir, para comprimir información de señales de TV aproximadamente hasta una centésima parte. La tasa de transmisión dentro del alcance de la norma MPEG-1 se limita principalmente a aproximadamente 1,5 Mbps, por lo tanto, MPEG-2, que se normalizó con vistas a cumplir los requisitos de las imágenes de alta calidad, permite una transmisión de datos de señales de imágenes en movimiento
45 a una tasa de 2 ~ 15 Mbps. En las presentes circunstancias, un grupo de trabajo (ISO / IEC JTC1 / SC29 / WG11) a cargo de la normalización de la norma MPEG-1 y la norma MPEG-2 ha normalizado MPEG-4 que logra una tasa de compresión que va más allá de la que se consigue por la norma MPEG-1 y la norma MPEG-2, realiza unas operaciones de codificación / descodificación de una forma en función del objeto así como una nueva función que es requerida por la época de la multimedia (véase la referencia, por ejemplo, a las especificaciones de las normas MPEG-1, MPEG-2 y MPEG-4 producidas por la ISO). La norma MPEG-4 no solo realiza un método de codificación sumamente eficiente para una baja tasa de bits sino que también introduce unas potentes técnicas de resistencia a errores que pueden minimizar un deterioro de la calidad de pantalla incluso cuando se halla un error en una línea de transmisión. Así mismo, la ISO / IEC y la UIT trabajan de forma conjunta en una normalización de MPEG-4 AVC / ITU H. 264 como un método de codificación de imágenes de la siguiente generación.
55 La codificación de imágenes en movimiento, en general, comprime el volumen de información mediante la reducción de la redundancia en las direcciones tanto temporal como espacial. Por lo tanto, una codificación de predicción de inter-imagen, que se dirige a reducir la redundancia temporal, estima un movimiento y genera una imagen predictiva de una forma de bloque a bloque con referencia a imágenes previas y subsiguientes con respecto a una imagen actual que va a codificarse y, a continuación, codifica un valor diferencial entre la imagen predictiva obtenida y la imagen actual. En el presente caso, la expresión “imagen” representa una única pantalla mientras que esta representa una trama cuando se usa en un contexto de imagen progresiva así como una trama o un campo en un contexto de una imagen entrelazada. En el presente caso, la imagen entrelazada es una imagen en la que una única trama consiste en dos campos que tienen un tiempo diferente. En el proceso de codificación y descodificación de la
65 imagen entrelazada, son posibles tres formas: manejar una única trama o bien como una trama, o bien como dos campos o bien como una estructura de tramas o una estructura de campos dependiendo de un bloque en la trama.
La figura 1 es un diagrama que muestra un ejemplo de tipos de imágenes y cómo las imágenes están relacionadas unas con otras. Las imágenes rayadas en la figura 1 son unas imágenes que van a almacenarse en una memoria debido a que se hace referencia a las mismas por otras imágenes. En lo que respecta a las flechas que se usan en la figura 1, la punta de la flecha apunta a una imagen de referencia alejándose de una imagen que se refiere a la
5 imagen de referencia. En el presente caso, las imágenes se encuentran en orden de visualización.
I0 (la imagen 0) es una imagen intra-codificada (imagen I) que se codifica independientemente de otras imágenes (en concreto, sin hacer referencia a otras imágenes). P4 (la imagen 4) y P7 (la imagen 7) son unas imágenes codificadas de predicción hacia delante (imagen P) que se codifican de forma predictiva con referencia a imágenes I que están ubicadas temporalmente previas con respecto a la imagen actual u otras imágenes P. B1 ~ B3 (las imágenes 1 ~ 3), B5 (la imagen 5) y B6 (la imagen 6) son unas imágenes codificadas de predicción bidireccional (imagen B) que se codifican de forma predictiva con referencia a otras imágenes tanto temporalmente previas como subsiguientes con respecto a la imagen actual.
15 La figura 2 es un diagrama que muestra otro ejemplo de los tipos de imágenes y cómo las imágenes están relacionadas unas con otras. La diferencia entre la figura 2 y la figura 1 es que una posición temporal de las imágenes a las que se hace referencia por una imagen B no se limita a las imágenes que están ubicadas temporalmente previas y subsiguientes con respecto a la imagen B. Por ejemplo, la B5 puede referirse a dos imágenes arbitrarias de entre I0 (la imagen 0), P3 (la imagen 3) y P6 (la imagen 6). En concreto, la I0 y la P3, temporalmente ubicadas previamente, pueden usarse como imágenes de referencia. Un método de referencia de este tipo ya se reconoce en la especificación de la norma MPEG-4 AVC / H.264 en septiembre de 2001. Por lo tanto, se amplía un rango para seleccionar una imagen predictiva óptima y, por lo tanto, la tasa de compresión puede mejorarse.
25 La figura 3 es un diagrama que muestra un ejemplo de una estructura de flujo de datos de imagen. Tal como se muestra en la figura 3, el flujo incluye un área de información común tal como un encabezamiento o similares y un área de GOP (Group of Pictures, grupo de imágenes). El área de GOP incluye un área de información común tal como un encabezamiento o similares y una pluralidad de áreas de imagen. El área de imagen incluye un área de información común tal como un encabezamiento o similares y una pluralidad de áreas de datos de sector. El área de datos de sector incluye un área de información común tal como un encabezamiento y una pluralidad de áreas de datos de macrobloque.
En el área de información común de imagen, el factor de ponderación necesario para realizar la predicción ponderada que va a mencionarse posteriormente se describen de forma respectiva de acuerdo con la imagen de
35 referencia.
Cuando se transmiten unos datos que no se encuentran en un flujo de bits que tiene unos flujos sucesivos sino en un paquete que es una unidad que consiste en fragmentos de datos, la parte de encabezamiento y la parte de datos que excluye la parte de encabezamiento pueden transmitirse por separado. En este caso, la parte de encabezamiento y la parte de datos no pueden incluirse en un único flujo de bits. En el caso de usar un paquete, no obstante, incluso cuando la parte de encabezamiento y la parte de datos no se transmiten en secuencia, la parte de datos y la parte de encabezamiento se transmiten de forma respectiva en un paquete diferente. A pesar de que estas no se transmiten en un flujo de bits, el concepto es el mismo que en el caso de usar un flujo de bits tal como se describe en la figura 3.
45 Lo siguiente describe un procesamiento de predicción ponderada que se lleva a cabo por el método de codificación de imágenes convencional.
Las figuras 4A y 4B son unos diagramas de patrón que muestran unos casos de realización de una predicción ponderada de una forma trama a trama.
Cuando se hace referencia a una única trama, tal como se muestra en la figura 4A, un valor de píxel Q en una imagen predictiva con respecto a un bloque actual que va a codificarse puede calcularse usando una ecuación para una predicción ponderada tal como se muestra en la ecuación (1) en lo sucesivo, en la que un valor de píxel dentro
55 de un bloque de referencia en el i ésimo número de trama de referencia, Trama i, se representa como P0. Cuando se hace referencia a dos tramas, tal como se muestra en la figura 4B, el valor de píxel Q en la imagen predictiva puede calcularse usando una ecuación para una predicción ponderada tal como se muestra en la ecuación (2) en lo sucesivo, en la que los valores de píxel respectivos dentro de los bloques de referencia en el i ésimo y el j ésimo números de tramas de referencia, Trama i y Trama j, se representan como P0 y P1.
Q=(P0xW0+D)/W2 (1)
Q=(P0xW0+P1xW1+D)/W2 (2)
65 En el presente caso, W0 y W1 representan factores de ponderación mientras que W2 representa un factor de normalización y D representa una componente de polarización (componente de CC).
Las figuras 5A y 5B son unos diagramas de patrón que muestran unos casos de realización de un procesamiento de predicción ponderada de una forma campo a campo.
Cuando se hace referencia a una única trama (en concreto, dos campos) tal como se muestra en la figura 5A, los
5 valores de píxel Qa y Qb en las imágenes predictivas con respecto a un bloque actual pueden calcularse usando unas ecuaciones para una predicción ponderada tal como se muestra en las ecuaciones (3) y (4) en lo sucesivo, en las que los valores de píxel dentro de unos bloques de referencia respectivos en unos campos respectivos de 2 x i + 1 y 2 x i, que componen el i ésimo número de trama (Trama i) que es para referencia, se representan como P0a y P0b. Cuando se hace referencia a dos tramas, tal como se muestra en la figura 5B, los valores de píxel Qa y Qb pueden calcularse mediante el uso de unas ecuaciones para una predicción ponderada tal como se muestra en las ecuaciones (5) y (6) en lo sucesivo, en las que los valores de píxel dentro de los bloques de referencia respectivos en el campo 2 x i + 1, 2 x i, 2 x j + 1 y 2 x j, que componen el i ésimo y el j ésimo número de tramas (Trama i y Trama j) se representan de forma respectiva como P0a, P0b, P1a y P1b.
15 Qa=(P0axW0a+Da)/W2a (3)
Qb=(P0bxW0b+Db)/W2b (4)
Qa=(P0axW0a+P1axW1a+Da)/W2a (5)
Qb=(P0bxW0b+P1bxW1b+Db)/W2b (6)
En el presente caso, W0a, W0b, W1a y W1b representan factores de ponderación mientras que W2 representa un factor de normalización y Da y Db representan unas componentes de polarización.
25 La figura 6 es un diagrama de bloques que muestra una estructura funcional de un aparato de codificación de imágenes 100 convencional. El aparato de codificación de imágenes 100 realiza una codificación de compresión (por ejemplo, una codificación de longitud variable) para una señal de imagen Ventrada introducida y emite una señal de imagen codificada Str que es un flujo de bits que se convierte mediante la codificación de compresión, e incluye una unidad de estimación de movimiento ME, una unidad de compensación de movimiento MC, una unidad de sustracción Sub, una unidad de transformación ortogonal T, una unidad de cuantificación Q, una unidad de cuantificación inversa IQ, una unidad de transformación ortogonal inversa IT, una unidad de adición Add, una memoria de imágenes PicMem, un conmutador SW y una unidad de codificación de longitud variable VLC.
35 La señal de imagen Ventrada se introduce en la unidad de sustracción Sub y la unidad de estimación de movimiento ME. La unidad de sustracción Sub calcula un valor diferencial entre la señal de imagen Ventrada introducida y la imagen predictiva y emite el resultado a la unidad de transformación ortogonal T. La unidad de transformación ortogonal T transforma el valor diferencial en un coeficiente de frecuencia y, a continuación, emite este a la unidad de cuantificación Q. La unidad de cuantificación Q cuantifica el coeficiente de frecuencia introducido y emite un valor cuantificado a la unidad de codificación de longitud variable VLC.
La unidad de cuantificación inversa IQ reconstruye el valor cuantificado como un coeficiente de frecuencia mediante la realización de una cuantificación inversa del mismo y emite este a la unidad de transformación ortogonal inversa IT. La unidad de transformación ortogonal inversa IT realiza una conversión de frecuencia inversa al coeficiente de
45 frecuencia con el fin de obtener un valor diferencial de píxeles y emite este a la unidad de adición Add. La unidad de adición Add añade el valor diferencial de píxeles a la imagen predictiva que se emite a partir de la unidad de compensación de movimiento MC y obtiene una imagen descodificada. El conmutador SW está ACTIVO cuando se le indica que almacene la imagen descodificada, y la imagen descodificada se almacena en la memoria de imágenes PicMem.
La unidad de estimación de movimiento ME, en la que se introduce la señal de imagen Ventrada de una forma macrobloque a macrobloque, se dirige a las imágenes descodificadas que están almacenadas en la memoria de imágenes PicMem para la búsqueda, y mediante la estimación de un área de imagen de acuerdo con la señal de imagen que es la más cercana a la señal de imagen introducida, determina un vector de movimiento MV (motion
55 vector) que indica el área. Se opera con la estimación del vector de movimiento usando un bloque que es una unidad que se realiza al dividir adicionalmente un macrobloque. Debido a que pueden usarse múltiples imágenes como imágenes de referencia, se requieren para cada bloque unos números de identificación (el número de imagen Índice) para identificar las imágenes que se usan para referencia. Por lo tanto, es posible identificar las imágenes de referencia mediante el establecimiento de una correspondencia de los números de imagen asignados a cada una de las imágenes en la memoria de imágenes PicMem con las imágenes de referencia con el uso del número de imagen Índice.
La unidad de compensación de movimiento MC extrae un área de imagen necesaria para generar una imagen predictiva a partir de una imagen descodificada que está almacenada en la memoria de imágenes PicMem usando el 65 número de imagen Índice. La unidad de compensación de movimiento MC a continuación determina una imagen predictiva final que se obtiene mediante la realización, a los valores de píxel en el área de imagen obtenida, de un
procesamiento de conversión de valores de píxel tal como un procesamiento de interpolación que se acciona en la predicción ponderada usando los factores de ponderación que están asociados con el número de imagen Índice.
La figura 7 es un diagrama de bloques que muestra un esquema de una estructura funcional de la unidad de
5 codificación de longitud variable VLC en el aparato de codificación de imágenes 100 convencional que se muestra en la figura 6. La unidad de codificación de longitud variable VLC incluye una unidad de codificación de MV 101, una unidad de codificación de valores cuantificados 102, una unidad de codificación de factores de ponderación 103, una unidad de codificación de índices 104, una unidad de codificación de información de identificación de AFF (Adaptive Field Frame, Campo -Trama Adaptativo) 105 y una unidad de multiplexación 106.
La unidad de codificación de MV 101 codifica un vector de movimiento mientras que la unidad de codificación de valores cuantificados 102 codifica un valor cuantificado Qcoef. La unidad de codificación de factores de ponderación 103 codifica un factor de ponderación Peso mientras que la unidad de codificación de índices 104 codifica un número de imagen Índice. La unidad de codificación de información de identificación de AFF 105 codifica una señal
15 de identificación de AFF, AFF, (la señal de identificación de AFF, AFF, se mencionará más adelante). La unidad de multiplexación 106 multiplexa cada una de las señales codificadas que se emiten a partir de la unidad de codificación de MV 101, la unidad de codificación de valores cuantificados 102, la unidad de codificación de factores de ponderación 103, la unidad de codificación de índices 104 y la unidad de codificación de información de identificación de AFF 105 y, a continuación, emite una señal de imagen codificada Str.
La figura 8 es un diagrama de bloques que muestra una estructura funcional de un aparato de descodificación de imágenes 200 convencional.
El aparato de descodificación de imágenes 200 para descodificar la señal de imagen codificada Str que se codifica
25 por el aparato de codificación de imágenes 100 que se ha descrito en lo que antecede incluye una unidad de descodificación de longitud variable VLD, una unidad de compensación de movimiento MC, una unidad de adición Add, una memoria de imágenes PicMem, una unidad de cuantificación inversa IQ y una unidad de transformación ortogonal inversa IT.
Cuando se introduce la señal de imagen codificada Str, la unidad de descodificación de longitud variable VLD desmultiplexa la señal de imagen codificada Str introducida para dar un vector diferencial de movimiento MV que se codifica, un índice que indica un número de imagen y un factor de ponderación Peso y emite los mismos a la unidad de compensación de movimiento MC. La unidad de descodificación de longitud variable VLD a continuación descodifica el valor cuantificado Qcoef codificado que está incluido en la señal de imagen codificada Str introducida
35 y emite este a la unidad de cuantificación inversa IQ.
La unidad de compensación de movimiento MC extrae un área de imagen necesaria para generar una imagen predictiva a partir de una imagen descodificada que está almacenada en la memoria de imágenes PicMem usando el vector de movimiento y el número de imagen Índice que se emiten a partir de la unidad de descodificación de longitud variable VLD. La unidad de compensación de movimiento MC a continuación genera una imagen predictiva mediante la realización de un procesamiento de conversión de valores de píxel tal como un procesamiento de interpolación en la predicción ponderada usando el factor de ponderación Peso para la imagen obtenida.
La unidad de cuantificación inversa IQ realiza una cuantificación inversa del valor cuantificado y reconstruye este
45 como un coeficiente de frecuencia y emite este a la unidad de transformación ortogonal inversa IT. La unidad de transformación ortogonal inversa IT realiza una conversión de frecuencia inversa al coeficiente de frecuencia con el fin de obtener un valor diferencial de píxeles y emite este a la unidad de adición Add. La unidad de adición Add añade el valor diferencial de píxeles a la imagen predictiva que se emite a partir de la unidad de compensación de movimiento MC y obtiene una imagen descodificada. La imagen descodificada se almacena en la memoria de imágenes PicMem para usarse para referencia en la predicción de inter-imagen. La imagen descodificada se emite como una señal de imagen descodificada Vsalida.
La figura 9 es un diagrama de bloques que muestra un esquema de una estructura funcional de una unidad de descodificación de longitud variable VLD en el aparato de descodificación de imágenes 200 convencional que se
55 muestra en la figura 8.
La unidad de descodificación de longitud variable VLD incluye una unidad de desmultiplexación 201, una unidad de descodificación de MV 202, una unidad de descodificación de valores cuantificados 203, una unidad de descodificación de factores de ponderación 204, una unidad de descodificación de índices 205 y una unidad de descodificación de señal de identificación de AFF 206.
Cuando la señal de imagen codificada Str se introduce en la unidad de descodificación de longitud variable VLD, la unidad de desmultiplexación 201 desmultiplexa la señal de imagen codificada Str introducida y emite de forma respectiva tal como sigue: el vector diferencial de movimiento MV codificado a la unidad de descodificación de MV 65 202; el valor cuantificado Qcoef codificado a la unidad de descodificación de valores cuantificados 203; el factor de ponderación codificado Peso a la unidad de descodificación de factores de ponderación 204; el número de imagen
codificado a la unidad de descodificación de índices 205 y la señal de identificación de AFF, AFF, codificada (que se abrevia como “AFF” en la siguiente descripción) a la unidad de descodificación de señal de identificación de AFF
206.
5 La unidad de descodificación de MV 202 descodifica el vector diferencial codificado y emite un vector de movimiento MV.
De forma similar, la unidad de descodificación de valores cuantificados 203 descodifica el valor cuantificado, la unidad de descodificación de factores de ponderación 204 descodifica el factor de ponderación Peso, la unidad de descodificación de índices 205 descodifica el número de imagen Índice y la unidad de descodificación de señal de identificación de AFF 206 descodifica la AFF de forma respectiva y, a continuación, emite los mismos.
La codificación convencional usando la predicción ponderada, no obstante, se realiza de una forma imagen a imagen con una suposición de que un bloque se codifica / descodifica para la misma imagen (una trama o uno de los
15 dos campos). Por lo tanto, solo un conjunto de factores de ponderación puede codificarse / descodificarse en la imagen.
Por lo tanto, a pesar de que el aparato de codificación de imágenes convencional tiene el potencial de mejorar la eficiencia en la estimación de movimiento, solo un único factor de ponderación puede transmitirse de una forma de bloque a bloque y, por lo tanto, la eficiencia de predicción es baja incluso cuando la conmutación de campo / trama tiene lugar de una forma de bloque a bloque, y, por lo tanto, la tasa de compresión no puede mejorarse.
Divulgación de la invención
25 La presente invención se ha concebido a la vista de las circunstancias que se han mencionado en lo que antecede y se dirige a proporcionar un método de codificación / descodificación de imágenes que puede manejar los factores de ponderación de forma apropiada incluso cuando una conmutación de campo / trama tiene lugar de una forma de bloque a bloque.
Con el fin de lograr el objetivo anterior, el aparato de codificación de imágenes de acuerdo con la presente invención codifica una imagen entrelazada de una forma de bloque a bloque, y comprende: una unidad de almacenamiento que puede operarse para almacenar una imagen que es o bien una trama o bien un campo que se descodifica después de codificarse, como una imagen de referencia; una unidad de generación de imágenes predictivas que puede operarse para leer la imagen de referencia a partir de la unidad de almacenamiento y generar una imagen 35 predictiva sobre la base de los valores de píxel en la imagen de referencia, usando uno de i) un factor de ponderación de tramas para codificar la imagen entrelazada de una forma trama a trama y ii) un factor de ponderación de campos para codificar la imagen entrelazada de una forma campo a campo; una unidad de codificación de señales que puede operarse para codificar, de una forma de bloque a bloque, un valor diferencial entre una imagen introducida y la imagen predictiva que se genera por la unidad de generación de imágenes predictivas, o bien de una forma trama a trama o bien de una forma campo a campo; una unidad de codificación de factores de ponderación que puede operarse para codificar el factor de ponderación de tramas de entre el factor de ponderación de tramas y un factor de ponderación de campos, cuando la unidad de codificación de señales codifica el valor diferencial de una forma de bloque a bloque de forma adaptativa o bien de la forma trama a trama o bien de la forma campo a campo; y una unidad de multiplexación que puede operarse para multiplexar el valor diferencial
45 que se codifica por la unidad de codificación de señales así como el factor de ponderación de tramas que se codifica por la unidad de codificación de factores de ponderación y emitir el valor diferencial y el factor de ponderación de tramas multiplexados, como una señal codificada.
En consecuencia, el aparato de codificación de imágenes de acuerdo con la presente invención abrevia un factor de ponderación de campos, codifica solo un factor de ponderación de tramas y transmite este a un aparato de descodificación de imágenes, con independencia de si la conmutación de trama / campo se realiza o no de una forma de bloque a bloque cuando se realiza la predicción ponderada para una imagen en movimiento. Por lo tanto, la eficiencia de transmisión puede mejorarse.
55 Con el fin de lograr el objetivo anterior, el aparato de descodificación de imágenes de acuerdo con la presente invención descodifica, de una forma de bloque a bloque, una señal codificada de acuerdo con una imagen que es o bien una única trama o bien un único campo, y comprende: una unidad de descodificación de señales que puede operarse para descodificar la señal codificada o bien de una forma trama a trama o bien de una forma campo a campo, cuando la señal codificada se codifica mediante una conmutación de forma adaptativa entre la forma trama a trama y la forma campo a campo; una unidad de almacenamiento que puede operarse para almacenar por lo menos una imagen descodificada; una unidad de generación de imágenes predictivas que puede operarse para extraer, de la señal codificada, un factor de ponderación de tramas para descodificar la señal codificada de la forma trama a trama, generar un factor de ponderación de campos para descodificar la señal codificada de la forma campo a campo, sobre la base del factor de ponderación de tramas, y generar una imagen predictiva sobre la base de los
65 valores de píxel en la imagen descodificada que está almacenada en la unidad de almacenamiento, usando el factor de ponderación de tramas extraído y el factor de ponderación de campos generado, cuando la señal codificada se
codifica mediante una conmutación de forma adaptativa entre la forma trama a trama y la forma campo a campo; y una unidad de adición que puede operarse para añadir la imagen que se obtiene en la descodificación que se realiza por la unidad de descodificación de señales a la imagen predictiva que se genera por la unidad de generación de imágenes predictivas, emitir la imagen añadida como una imagen descodificada, y almacenar la imagen
5 descodificada en la unidad de almacenamiento.
En consecuencia, el aparato de descodificación de imágenes de acuerdo con la presente invención genera el factor de ponderación de campos sobre la base del factor de ponderación de tramas incluso cuando tiene lugar la conmutación de trama / campo de una forma de bloque a bloque y no se transmite el factor de ponderación de campos. Esto realiza la conmutación adaptativa de trama / campo de una forma de bloque a bloque y mejora la eficiencia de transmisión.
Con el fin de lograr el objetivo anterior, el método de codificación de imágenes de acuerdo con la presente invención codifica una imagen entrelazada de entrada con referencia a por lo menos una imagen descodificada, y comprende
15 las etapas de: generar una imagen predictiva usando una ecuación de predicción que se pondera mediante unos factores de ponderación previamente determinados, con referencia a la imagen descodificada; generar una primera señal codificada mediante la codificación de una imagen diferencial entre la imagen entrelazada de entrada y la imagen predictiva de forma adaptativa o bien de una forma campo a campo o bien de una forma trama a trama; generar una imagen descodificada mediante la descodificación de dicha señal codificada y la adición de la señal codificada descodificada a la imagen diferencial; y generar una segunda señal codificada mediante la codificación de los factores de ponderación previamente determinados de las formas respectivas, de la forma campo a campo o de la forma trama a trama, cuando la imagen diferencial entre la imagen entrelazada de entrada y la imagen predictiva se codifica de forma adaptativa o bien de la forma trama a trama o bien de la forma campo a campo.
25 Los factores de ponderación con los que se opera de una forma campo a campo pueden ser los factores de ponderación de tanto un primer campo como un segundo campo.
Con el fin de lograr el objetivo anterior, el método de codificación de imágenes de acuerdo con la presente invención codifica una imagen entrelazada de entrada con referencia a por lo menos una imagen descodificada, y comprende las etapas de: generar una imagen predictiva usando una ecuación de predicción que se pondera mediante unos factores de ponderación previamente determinados, con referencia a la imagen descodificada; generar una primera señal codificada mediante la codificación de forma adaptativa de una imagen diferencial entre la imagen entrelazada de entrada y la imagen predictiva o bien de una forma trama a trama o bien de una forma campo a campo; generar una segunda señal codificada para codificar una información de identificación que indica si codificar los factores de
35 ponderación previamente determinados tanto de la forma campo a campo como de la forma trama a trama o codificar los factores de ponderación previamente determinados o bien de la forma campo a campo o bien de la forma trama a trama; y generar una tercera señal codificada mediante la codificación de los factores de ponderación previamente determinados de acuerdo con la información de identificación.
Con el fin de lograr el objetivo anterior, el método de descodificación de imágenes de acuerdo con la presente invención descodifica una señal codificada, que es una imagen entrelazada de entrada codificada, con referencia a por lo menos una imagen descodificada, y comprende, cuando la imagen entrelazada de entrada se codifica de forma adaptativa o bien de una forma trama a trama o bien de una forma campo a campo, las etapas de: obtener unos factores de ponderación que se codifican de una forma campo a campo y de una forma trama a trama
45 mediante la descodificación de la señal codificada; generar una imagen predictiva usando una ecuación de predicción que se pondera mediante los factores de ponderación, con referencia a la imagen descodificada; generar una imagen diferencial mediante la descodificación de la señal codificada o bien de una forma trama a trama o bien de una forma campo a campo; y generar una imagen descodificada mediante la adición de la imagen predictiva a la imagen diferencial.
Los factores de ponderación que se codifican de una forma campo a campo pueden ser los factores de ponderación de tanto un primer campo como un segundo campo.
Con el fin de lograr el objetivo anterior, el método de descodificación de imágenes de acuerdo con la presente
55 invención descodifica una señal codificada, que es una imagen entrelazada de entrada codificada, con referencia a por lo menos una imagen descodificada, y comprende, cuando una imagen diferencial entre la imagen entrelazada de entrada y la imagen predictiva se codifica de forma adaptativa o bien de una forma trama a trama o bien de una forma campo a campo, las etapas de: obtener una información de identificación que indica si descodificar la señal codificada tanto de una forma campo a campo como de una forma trama a trama o bien de la forma campo a campo
o bien de la forma trama a trama; obtener ambos de los factores de ponderación mediante la descodificación de la señal codificada, cuando la información de identificación obtenida indica que los factores de ponderación se descodifican de ambas formas, de una forma campo a campo y de una forma trama a trama; estimar uno de los factores de ponderación codificados sobre la base del factor de ponderación, que es otro factor de ponderación que se descodifica usando la señal codificada, cuando la información de identificación indica que los factores de
65 ponderación se descodifican de una cualquiera de las formas, de una forma campo a campo o de una forma trama a trama; generar una imagen predictiva usando una ecuación de predicción que se pondera mediante los factores de
ponderación, con referencia a la imagen descodificada; generar una imagen diferencial mediante la descodificación de la señal codificada o bien de una forma campo a campo o bien de una forma trama a trama; y generar una imagen descodificada mediante la adición de la imagen diferencial a la imagen predictiva.
5 Con el fin de lograr el objetivo anterior, el aparato de codificación de imágenes de acuerdo con la presente invención codifica una imagen entrelazada de entrada con referencia a por lo menos una imagen descodificada, y comprende: una unidad que puede operarse para generar una imagen predictiva usando una ecuación de predicción que se pondera mediante unos factores de ponderación previamente determinados, con referencia a la imagen descodificada; una unidad que puede operarse para generar una primera señal codificada mediante la codificación de forma adaptativa de una imagen diferencial entre la imagen entrelazada de entrada y la imagen predictiva o bien de una forma trama a trama o bien de una forma campo a campo; una unidad que puede operarse para generar una imagen descodificada mediante la descodificación de la señal codificada y la adición de la señal codificada descodificada a la imagen diferencial; una unidad que puede operarse para generar una segunda señal codificada mediante la codificación de los factores de ponderación previamente determinados de unas formas respectivas, de
15 una forma campo a campo y de una forma trama a trama, cuando la imagen diferencial entre la imagen entrelazada de entrada y la imagen predictiva se codifica de forma adaptativa o bien de la forma trama a trama o bien de la forma campo a campo.
Con el fin de lograr el objetivo anterior, un aparato de codificación de imágenes de acuerdo con la presente invención codifica una imagen entrelazada de entrada con referencia a por lo menos una imagen descodificada, y comprende: una unidad que puede operarse para generar una imagen predictiva usando una ecuación de predicción que se pondera mediante unos factores de ponderación previamente determinados, con referencia a la imagen descodificada; una unidad que puede operarse para generar una primera señal codificada mediante la codificación de forma adaptativa de una imagen diferencial entre la imagen entrelazada de entrada y la imagen predictiva o bien 25 de una forma trama a trama o bien de una forma campo a campo; una unidad que puede operarse para generar una imagen descodificada mediante la descodificación de la señal codificada y la adición de la señal codificada descodificada a la imagen diferencial; una unidad que puede operarse para generar una segunda señal codificada para generar una información de identificación que indica si codificar los factores de ponderación previamente determinados tanto de la forma campo a campo como de la forma trama a trama o bien de la forma campo a campo
o bien de la forma trama a trama; y una unidad que puede operarse para generar una tercera señal codificada mediante la codificación de los factores de ponderación previamente determinados de acuerdo con la información de identificación.
Con el fin de lograr el objetivo anterior, el aparato de descodificación de imágenes de acuerdo con la presente
35 invención descodifica una señal codificada, que es una imagen entrelazada de entrada codificada, con referencia a por lo menos una imagen descodificada, y comprende, cuando la imagen entrelazada de entrada se codifica de forma adaptativa o bien de una forma trama a trama o bien de una forma campo a campo: una unidad que puede operarse para obtener unos factores de ponderación con los que se opera tanto de la forma campo a campo como de la forma trama a trama, mediante la descodificación de la señal codificada; una unidad que puede operarse para generar una imagen predictiva usando una ecuación de predicción que se pondera mediante los factores de ponderación, con referencia a la imagen descodificada; una unidad que puede operarse para generar una imagen diferencial mediante la descodificación de la señal codificada o bien de una forma trama a trama o bien de una forma campo a campo y generar una imagen descodificada mediante la adición de la imagen diferencial a la imagen predictiva.
45 Con el fin de lograr el objetivo anterior, el aparato de descodificación de imágenes de acuerdo con la presente invención descodifica una señal codificada, que es una imagen entrelazada de entrada codificada, con referencia a por lo menos una imagen descodificada, y comprende, cuando la imagen entrelazada de entrada se codifica de forma adaptativa o bien de una forma trama a trama o bien de una forma campo a campo: una unidad que puede operarse para obtener una información de identificación que indica si descodificar factores de ponderación de ambas formas, de una forma campo a campo y de una forma trama a trama, o descodificar los factores de ponderación de una cualquiera de las formas, de la forma campo a campo o de la forma trama a trama; una unidad que puede operarse para obtener ambos de los factores de ponderación cuando la información de identificación obtenida indica que los factores de ponderación van a descodificarse de ambas formas, de la forma campo a campo y de la forma
55 trama a trama; una unidad que puede operarse para estimar uno de los factores de ponderación codificados sobre la base del factor de ponderación, que es otro factor de ponderación que se descodifica usando la señal codificada, y generar una imagen predictiva usando una ecuación de predicción que se pondera mediante los factores de ponderación, con referencia a la imagen descodificada, cuando la información de identificación obtenida indica que los factores de ponderación van a descodificarse de una cualquiera de las formas, de la forma campo a campo o de la forma trama a trama; una unidad que puede operarse para generar una imagen diferencial mediante la descodificación de la señal codificada o bien de la forma trama a trama o bien de la forma campo a campo; y una unidad que puede operarse para generar una imagen descodificada mediante la adición de la imagen diferencial a la imagen predictiva.
65 Con el fin de lograr el objetivo anterior, la presente invención puede realizarse como un método de codificación de imágenes y / o un método de descodificación de imágenes que tienen las unidades constituyentes características
incluidas en cada uno de los aparatos anteriores como etapas y también como un programa que incluye la totalidad de las etapas que están incluidas en estos métodos. El programa puede almacenarse en una ROM que está incluida en un aparato con el que los métodos anteriores pueden realizarse así como distribuirse por medio de un medio de almacenamiento tal como un CD-ROM o similares y un medio de transmisión tal como una red de comunicación o
5 similares.
En lo que respecta a información adicional acerca de antecedentes técnicos para la presente solicitud, la solicitud de patente de Japón con Nº 2002-289303 presentada el 1 de octubre de 2002, se incorpora en el presente documento por referencia.
Breve descripción de los dibujos
Estos y otros objetivos, ventajas y características de la invención serán evidentes a partir de la siguiente descripción de la misma que se toma en conjunción con los dibujos adjuntos que ilustran una realización específica de la 15 invención. En los dibujos:
La figura 1 es un diagrama que muestra un ejemplo de tipos de imágenes y su relación de referencia. La figura 2 es un diagrama que muestra otro ejemplo de los tipos de imágenes y su relación de referencia. La figura 3 es un diagrama que muestra un ejemplo de una estructura de flujo de datos de imagen. La figura 4A es un diagrama de patrón para realizar un procesamiento de predicción ponderada con referencia a una única trama. La figura 4B es un diagrama de patrón para realizar un procesamiento de predicción ponderada con referencia a dos tramas. La figura 5A es un diagrama de patrón para realizar un procesamiento de predicción ponderada con referencia a
25 un primer o un segundo campo que se corresponde con una imagen predictiva con respecto a una imagen actual que va a codificarse. La figura 5B es un diagrama de patrón para realizar un procesamiento de predicción ponderada con referencia tanto al primer como al segundo campos que se corresponden con la imagen predictiva. La figura 6 es un diagrama de bloques que muestra una estructura funcional de un aparato de codificación de imágenes convencional. La figura 7 es un diagrama de bloques que muestra un esquema de una estructura funcional de una unidad de codificación de longitud variable en el aparato de codificación de imágenes convencional. La figura 8 es un diagrama de bloques que muestra una estructura funcional de un aparato de descodificación de imágenes convencional.
35 La figura 9 es un diagrama de bloques que muestra un esquema de una estructura funcional de una unidad de codificación de longitud variable en el aparato de descodificación de imágenes convencional. La figura 10 es un diagrama de bloques que muestra un esquema de una estructura funcional de una unidad de codificación de longitud variable de acuerdo con una primera realización. La figura 11 es un diagrama de bloques que muestra un esquema de una estructura funcional de una unidad de descodificación de longitud variable de acuerdo con la primera realización. La figura 12A es un ejemplo detallado de una estructura de datos de un “encabezamiento” que está incluido en un área de información común en un área de imagen de acuerdo con la primera realización. La figura 12B es un ejemplo de un caso en el que solo un “factor de ponderación de campos” se transmite como un “factor de ponderación de imágenes”, que no tiene “AFF” alguna.
45 La figura 12C es un ejemplo de un caso en el que campo y trama no pueden conmutarse de una forma de bloque a bloque debido a que una “información de codificación de tramas de imagen” indica “1” y la “AFF” indica “0”. La figura 13 es un diagrama de flujo que muestra una secuencia de procesamiento de codificación con respecto a los factores de ponderación con los que opera una unidad de descodificación de longitud variable cuando una “información de codificación de tramas de imagen” indica “1” y una imagen se codifica de una forma trama a trama, de acuerdo con la primera realización. La figura 14A es un ejemplo detallado de una estructura de datos de un “encabezamiento” que está incluido en un área de información común en un área de imagen de acuerdo con una variación de la primera realización. La figura 14B es un ejemplo de un caso en el que solo un “factor de ponderación de campos” se transmite como un “factor de ponderación de imágenes”, que no tiene “AFF” alguna debido a que la “información de codificación
55 de tramas de imagen” indica “0” lo que determina codificar siempre por campos. La figura 14C es un ejemplo de un caso en el que campo y trama no pueden conmutarse de una forma de bloque a bloque debido a que la “información de codificación de tramas de imagen” indica “1” y la “AFF” indica “0”. La figura 15 es un diagrama de flujo que muestra una secuencia de procesamiento de codificación con respecto a los factores de ponderación con los que opera una unidad de descodificación de longitud variable cuando la “información de codificación de tramas de imagen” indica “1” y una imagen se codifica de una forma trama a trama, de acuerdo con la variación de la primera realización. La figura 16 es un diagrama de flujo que muestra una secuencia de procesamiento de descodificación con respecto a los factores de ponderación cuando la “información de codificación de tramas de imagen” con la que opera la unidad de codificación de longitud variable que se ilustra en la figura 11 indica “1” y una imagen se
65 codifica de una forma trama a trama. La figura 17A es un ejemplo detallado de una estructura de datos de un “encabezamiento” que está incluido en
un área de información común en un área de imagen de acuerdo con una segunda realización, en la que la “AFF” se establece a “1” y la “información de presencia / ausencia de factor de campos” se establece a “1”. La figura 17B es un diagrama similar a la figura 17A en el que la “AFF” se establece a “1” y la “información de presencia / ausencia de factor de campos” se establece a “0”.
5 La figura 17C es un ejemplo en el que la conmutación de campo / trama no tiene lugar de una forma de bloque a bloque debido a que la “AFF” se establece a “0”. La figura 18 es un diagrama de flujo que muestra una secuencia de procesamiento de codificación con respecto a los factores de ponderación con los que opera la unidad de codificación de longitud variable de acuerdo con la segunda realización. La figura 19 es un diagrama de flujo que muestra una secuencia de procesamiento de descodificación con respecto a los factores de ponderación con los que opera la unidad de descodificación de longitud variable de acuerdo con la segunda realización. La figura 20A es un diagrama que muestra un ejemplo de una estructura de datos de un área de imagen, en el que la “AFF” se establece a “1” y la “información de presencia / ausencia de factor de tramas” se establece a “1”,
15 de acuerdo con una tercera realización. La figura 20B es un diagrama similar a la figura 20A, en el que la “AFF” se establece a “1” y la “información de presencia / ausencia de factor de tramas” se establece a “0”. La figura 20C es un ejemplo en el que una conmutación de campo / trama no tiene lugar de una forma de bloque a bloque debido a que la “AFF” se establece a “0”. La figura 21 es un diagrama de flujo que muestra una secuencia de procesamiento de codificación con respecto a los factores de ponderación con los que opera una unidad de codificación de longitud variable de acuerdo con la tercera realización. La figura 22 es un diagrama de flujo que muestra una secuencia de procesamiento de descodificación con respecto a los factores de ponderación con los que opera una unidad de descodificación de longitud variable de
25 acuerdo con la tercera realización. Las figuras 23A ~ 23C son unas ilustraciones para realizar el método de codificación de imágenes y el método de descodificación de imágenes de acuerdo con la primera, la segunda y la tercera realizaciones usando un programa que se graba en un medio de registro tal como un disco flexible. La figura 23A es una ilustración que muestra un formato físico del disco flexible que es un cuerpo principal del medio de registro. La figura 23B es una ilustración que muestra una apariencia completa del disco flexible, una estructura en sección transversal y el propio disco flexible. La figura 23C es una ilustración que muestra una estructura para registrar / reproducir el programa en el disco flexible FD.
35 La figura 24 es un diagrama de bloques que muestra la totalidad de una estructura de un sistema de suministro de contenido para realizar un sistema de entrega de contenido. La figura 25 es un diagrama que muestra un ejemplo de un teléfono celular. La figura 26 es un diagrama de bloques que muestra una estructura interna del teléfono celular. La figura 27 es un diagrama de bloques que muestra la totalidad de una estructura de un sistema de difusión digital.
Mejor modo para llevar a cabo la invención
Lo siguiente describe realizaciones de acuerdo con la presente invención con detalle con referencia a los diagramas. 45 (Primera realización)
La estructura funcional del aparato de codificación de imágenes para realizar el método de codificación de imágenes de acuerdo con la presente realización es la misma que la del aparato de codificación de imágenes 100 convencional que se ha mencionado en lo que antecede, excepto por la unidad de codificación de longitud variable VLC. De forma similar, la estructura funcional del aparato de descodificación de imágenes para realizar el método de descodificación de imágenes de acuerdo con la presente realización es la misma que la del aparato de descodificación de imágenes 200 convencional que se ha mencionado en lo que antecede, excepto por la unidad de descodificación de longitud variable VLD.
55 Por lo tanto, lo siguiente se centra principalmente en las descripciones de una unidad de codificación de longitud variable VLC y una unidad de descodificación de longitud variable VLD que son diferentes de las convencionales.
La figura 10 es un diagrama de bloques que muestra un esquema de una estructura funcional de la unidad de codificación de longitud variable de acuerdo con la presente realización. Tal como se muestra en la figura 10, la unidad de codificación de longitud variable VLC incluye una unidad de codificación de MV 101, una unidad de codificación de valores cuantificados 102, una unidad de codificación de factores de ponderación de campos 11, una unidad de codificación de factores de ponderación de tramas 12, una unidad de codificación de índices 104, una unidad de determinación de modo de factores de ponderación 13, una unidad de codificación de información de 65 identificación de AFF 105, unos conmutadores 14, 15 y una unidad de multiplexación 106. Se ponen las mismas marcas de referencia para las mismas estructuras funcionales que las de la unidad de codificación de longitud
variable VLC convencional y, por lo tanto, se abrevia la explicación.
Los conmutadores 14 y 15 controlan la ACTIVACIÓN / DESACTIVACIÓN mediante la determinación del destino del factor de ponderación introducido Peso, o bien a la unidad de codificación de factores de ponderación de campos 11 5 o bien a la unidad de codificación de factores de ponderación de tramas 12, sobre la base del resultado de la determinación que se realiza por la unidad de determinación de modo de factores de ponderación 13.
La unidad de codificación de factores de ponderación de campos 11 codifica el factor de ponderación introducido Peso como un factor de ponderación de campos mientras que la unidad de codificación de factores de ponderación de tramas 12 codifica este como un factor de ponderación de tramas.
La unidad de determinación de modo de factores de ponderación 13 realiza la determinación de trama / campo sobre la base del valor de la AFF y el del factor de ponderación Peso y, a continuación, informa a los conmutadores 14, 15 y a la unidad de multiplexación 106 del resultado de la determinación.
15 La figura 11 es un diagrama de bloques que muestra un esquema de una estructura funcional de la unidad de descodificación de longitud variable VLD de acuerdo con la presente realización. Tal como se muestra en la figura 11, la unidad de descodificación de longitud variable VLD incluye una unidad de desmultiplexación 21, una unidad de descodificación de MV 202, una unidad de descodificación de valores cuantificados 203, una unidad de descodificación de factores de ponderación de campos 22, una unidad de descodificación de factores de ponderación de tramas 23, una unidad de generación de factores de ponderación 24, una unidad de descodificación de índices 205, una unidad de descodificación de información de identificación de AFF 206 y unos conmutadores 26 ~ 28. Se ponen las mismas marcas de referencia para las mismas estructuras funcionales que las de la unidad de descodificación de longitud variable VLD convencional y, por lo tanto, se abrevia la explicación.
25 La unidad de desmultiplexación 21 desmultiplexa la señal de imagen codificada Str introducida y emite las señales desmultiplexadas de forma respectiva tal como sigue: el vector de movimiento MV codificado a la unidad de descodificación de MV 202; el valor cuantificado Qcoef codificado a la unidad de descodificación de valores cuantificados 203; el factor de ponderación codificado Peso a la unidad de descodificación de factores de ponderación de campos 22 o la unidad de descodificación de factores de ponderación de tramas 23, y la unidad de generación de factores de ponderación 24; el número de imagen Índice codificado a la unidad de descodificación de índices 205 y la AFF codificada a la unidad de descodificación de información de identificación de AFF 206.
La unidad de descodificación de factores de ponderación de campos 22 descodifica el factor de ponderación
35 introducido Peso como un factor de ponderación de campos. La unidad de descodificación de factores de ponderación de tramas 23 descodifica el factor de ponderación introducido Peso como un factor de ponderación de tramas.
La unidad de generación de factores de ponderación 24 genera un factor de ponderación de campos sobre la base de un factor de ponderación de tramas, si es necesario. Este es un caso, por ejemplo, en el que tiene lugar la conmutación de trama / campo de una forma de bloque a bloque y es necesario generar un factor de ponderación de campos sobre la base de un factor de ponderación de tramas debido a que no se codifica un factor de ponderación de campos.
45 Las figuras 12A, 12B y 12C son unos diagramas que muestran unos ejemplos de una estructura de datos de un área de imagen de acuerdo con la presente realización. La figura 12A es un ejemplo detallado de una estructura de datos de un “encabezamiento” dentro de un área de información común en el área de imagen. En el ejemplo de la figura 12A, el “encabezamiento” incluye una “información de codificación de tramas de imagen” que indica si la imagen se codifica de una forma trama a trama o de una forma campo a campo. Por ejemplo, cuando la “información de codificación de tramas de imagen” indica “1”, el “encabezamiento” incluye además una bandera “AFF” que indica si la conmutación entre campo y trama de una forma de bloque a bloque tiene lugar o no. Cuando la “AFF” indica “1”, por ejemplo, esto indica que la conmutación entre campo y trama tiene lugar. Tal como se muestra en la figura 12A, cuando la “AFF” indica “1”, se transmiten tanto el “factor de ponderación de campos” como el “factor de ponderación de tramas”. El “factor de ponderación de campos” incluye un “primer factor de ponderación de campos” y un
55 “segundo factor de ponderación de campos”.
Cuando la “información de codificación de tramas de imagen” indica “0”, la imagen se codifica de una forma campo a campo, por lo tanto, es imposible conmutar entre campo y trama de una forma de bloque a bloque. En consecuencia, tal como se muestra en la figura 12B, el “encabezamiento” no incluye la “AFF” y solo el “factor de ponderación de campos” se transmite como un “factor de ponderación de imágenes”. En el caso de la figura 12C, en la que la “información de codificación de tramas de imagen” es “1” y la “AFF” indica “0”, es imposible conmutar entre campo y trama de una forma de bloque a bloque. Por lo tanto, solo el “factor de ponderación de tramas” se transmite como un “factor de ponderación de imágenes”.
65 La figura 13 es un diagrama de flujo que muestra una secuencia de procesamiento de codificación con respecto a los factores de ponderación con los que opera la unidad de descodificación de longitud variable VLD cuando la
“información de codificación de tramas de imagen” indica “1” y la imagen se codifica de una forma trama a trama, de acuerdo con la presente realización.
En primer lugar, cuando el valor de la “AFF” indica “1” y la conmutación de trama / campo se acciona de una forma
5 de bloque a bloque (Sí en S10), se codifica la “AFF” que indica que “tiene lugar una conmutación de una forma de bloque a bloque” (S13) y, a continuación, se codifican el factor de ponderación de tramas y el factor de ponderación de campos (S14, S15).
Cuando el valor de la “AFF” es “0” y no tiene lugar conmutación alguna de trama / campo de una forma de bloque a bloque (No en S10), se codifica el valor “0” de la “AFF” que indica que “no tiene lugar conmutación alguna de una forma de bloque a bloque” (S11) y se codifica el “factor de ponderación de imágenes” (S12).
(Variación)
15 Las figuras 14A, 14B y 14C son unos diagramas que muestran unos ejemplos de una estructura de datos de un área de imagen de acuerdo con una variación de la presente realización. La figura 14A es un ejemplo detallado de una estructura de datos de un “encabezamiento” dentro de un área de información común en el área de imagen. En el ejemplo de la figura 14A, el “encabezamiento” incluye una “información de codificación de tramas de imagen” que indica si la imagen se codifica de una forma trama a trama o de una forma campo a campo. Por ejemplo, cuando la “información de codificación de tramas de imagen” indica “1” (esto quiere decir que la imagen se codifica de una forma trama a trama), el “encabezamiento” incluye además una bandera “AFF” que indica si la conmutación entre campo y trama de una forma de bloque a bloque tiene lugar o no. Cuando la “AFF” indica “1”, por ejemplo, esto indica que la conmutación entre campo y trama tiene lugar de una forma de bloque a bloque. Tal como se muestra en la figura 14A, cuando la “AFF” indica “1”, se transmite el “factor de ponderación de tramas”, y el “factor de
25 ponderación de campos” asigna el “factor de ponderación de tramas” al procesamiento de codificación.
Cuando la “información de codificación de tramas de imagen” indica “0”, esta indica que la imagen se codifica de una forma campo a campo. En este caso, la conmutación de trama / campo de una forma de bloque a bloque no tiene lugar. Por lo tanto, es imposible conmutar entre campo y trama de una forma de bloque a bloque. En consecuencia, cuando el “encabezamiento” no incluye la “AFF” tal como se muestra en la figura 14B, esto quiere decir que solo el “factor de ponderación de campos” se transmite como un “factor de ponderación de imágenes”. En el caso de la figura 14C, en la que la “información de codificación de tramas de imagen” indica “1” y la “AFF” indica “0”, la conmutación de trama / campo de una forma de bloque a bloque no tiene lugar y, por lo tanto, la imagen se codifica siempre de una forma trama a trama. Por lo tanto, solo el “factor de ponderación de tramas” se transmite como un
35 “factor de ponderación de imágenes”.
La figura 15 es un diagrama de flujo que muestra una secuencia de procesamiento de codificación con respecto a los factores de ponderación con los que opera la unidad de codificación de longitud variable VLC cuando la “información de codificación de tramas de imagen” indica “1” y la imagen se codifica de una forma trama a trama, de acuerdo con la variación de la presente realización.
En primer lugar, cuando el valor de la “AFF” es “1” y la conmutación de trama / campo se acciona de una forma de bloque a bloque (Sí en S10), se codifica la “AFF” que indica que “tiene lugar una conmutación de una forma de bloque a bloque” (S13) y se codifica el factor de ponderación de tramas (S15).
45 Cuando el valor de la “AFF” es “0” y no tiene lugar conmutación alguna de trama / campo de una forma de bloque a bloque (No en S10), se codifica el valor “0” de la “AFF” que indica que “no tiene lugar conmutación alguna de una forma de bloque a bloque” (S11) y o bien el “factor de ponderación de campos” o bien el “factor de ponderación de tramas” que se corresponde con una unidad de codificación de un bloque se codifica como un “factor de ponderación de imágenes” (S12) sobre la base de la información de codificación de tramas de imagen.
La figura 16 es un diagrama de flujo que muestra una secuencia de procesamiento de descodificación con respecto a los factores de ponderación cuando la “información de codificación de tramas de imagen” indica “1” y la imagen que se procesa por la unidad de descodificación de longitud variable VLD que se muestra en la figura 11 se codifica
55 de una forma trama a trama. Este diagrama de flujo también se corresponde con la secuencia de procesamiento de codificación que se describe en la figura 13.
En primer lugar, la unidad de descodificación de longitud variable VLD descodifica la “AFF” (S20). Cuando el valor de “AFF” es “1” que indica que la conmutación de trama / campo se acciona de una forma de bloque a bloque (Sí en S21), la unidad de descodificación de longitud variable VLD descodifica el factor de ponderación de tramas (S23) y genera un factor de ponderación de campos sobre la base de este (por ejemplo, asignando un factor de ponderación de tramas) (S24).
Por otro lado, cuando el valor de la “AFF” es “0” que indica que la conmutación de trama / campo de una forma de
65 bloque a bloque no tiene lugar (S21: No), la unidad de descodificación de longitud variable VLD descodifica o bien el “factor de ponderación de campos” como un “factor de ponderación de imágenes” o bien el “factor de ponderación
de campos” (S22).
Por lo tanto, mediante el empleo del método de codificación / descodificación de imágenes de acuerdo con la presente realización, se realiza la conmutación de trama / campo de una forma de bloque a bloque, la eficiencia de
5 predicción se mejora, lo que con el tiempo conlleva una mejora de la tasa de compresión. Además, incluso cuando no se codifica el “factor de ponderación de campos”, la unidad de descodificación de longitud variable VLD genera el “factor de ponderación de campos” sobre la base del “factor de ponderación de tramas” de tal modo que la conmutación de campo / trama de una forma por bloques tiene lugar sin problema alguno.
(Segunda realización)
La presente realización describe un ejemplo de un caso en el que una estructura de datos de un área de imagen es diferente de la que se ilustra en la primera realización.
15 Las figuras 17A, 17B y 17C son unos diagramas que muestran unos ejemplos de una estructura de datos de un área de imagen de acuerdo con la presente realización. Estos diagramas también muestran una estructura de datos detallada de un “encabezamiento” que está incluido en un área de información común en un área de imagen. La presente realización ilustra un ejemplo de una estructura del “encabezamiento” del cual puede abreviarse un factor de ponderación de campos cuando la “información de codificación de tramas de imagen” indica “1” y la imagen se codifica de una forma trama a trama.
Tal como se muestra en las figuras 17A y 17B, el “encabezamiento” incluye una “información de presencia / ausencia de factor de campos” así como la “AFF”. La “información de presencia / ausencia de factor de campos” es una bandera que indica si el “encabezamiento” tiene un factor de ponderación de campos o no. Por
25 ejemplo, la bandera se establece a “1” cuando el “encabezamiento” tiene el factor de ponderación de campos y se establece a “0” cuando se abrevia el factor de ponderación de campos.
La figura 17A es un caso en el que tanto la “AFF” como la “información de presencia / ausencia de factor de campos” se establecen a “1” y se transmite el factor de ponderación de campos. El “factor de ponderación de campos” incluye el “primer factor de ponderación de campos” y el “segundo factor de ponderación de campos” como en el caso de la primera realización que se ha descrito en lo que antecede.
La figura 17B es un caso en el que la “AFF” se establece a “1” y la “información de presencia / ausencia de factor de campos” se establece a “0”.
35 La figura 17C es un caso en el que la conmutación de campo / trama una forma de bloque a bloque no tiene lugar debido a que la “AFF” se establece a “0”.
La figura 18 es un diagrama de flujo que muestra una secuencia de procesamiento de codificación con respecto a los factores de ponderación con los que opera la unidad de codificación de longitud variable VLC de acuerdo con la presente realización.
En primer lugar, cuando el valor de la “AFF” indica “1” y se acciona la conmutación de trama / campo de una forma de bloque a bloque (Sí en S10), la unidad de codificación de longitud variable VLC codifica la “AFF” que indica que la
45 conmutación de una forma de bloque a bloque tiene lugar (S31).
Además, la unidad de codificación de longitud variable VLC determina si un factor de ponderación de campos puede generarse o no sobre la base de un factor de ponderación de tramas (S32), y cuando esto es posible, codifica una información que indica la generación del factor de ponderación de campos, y el factor de ponderación de tramas (S36, S37). Cuando el factor de ponderación de campos no se genera sobre la base del factor de ponderación de tramas, la unidad de codificación de longitud variable VLC codifica una información que indica la presencia / ausencia del factor de ponderación de campos así como el factor de ponderación de tramas y el factor de ponderación de campos (S 33 ~ S35).
55 Por otro lado, cuando el valor de la “AFF” es “0” y no se acciona la conmutación de trama / campo de una forma de bloque a bloque (No en S10), el procesamiento subsiguiente es el mismo que en el diagrama de flujo que se ilustra en la figura 15 (S11, S12).
La figura 19 es un diagrama de flujo que muestra una secuencia de procesamiento de descodificación con respecto a los factores de ponderación con los que opera la unidad de descodificación de longitud variable VLD que se describe en la figura 11. Este diagrama de flujo también se corresponde con la secuencia del procesamiento de codificación que se describe en la figura 18.
En primer lugar, cuando el valor de la “AFF” es “1” que indica que se acciona la conmutación de trama / campo de
65 una forma de bloque a bloque (Sí en S21), la unidad de descodificación de longitud variable VLD descodifica la “AFF” (S20) y, a continuación, descodifica la información que indica la presencia / ausencia del factor de
ponderación de campos (S41).
A continuación, la unidad de descodificación de longitud variable VLD determina si se halla o no el factor de ponderación de campos (S42), descodifica el factor de ponderación de tramas cuando no se halla el factor de
5 ponderación de campos (S45) y genera el factor de ponderación de campos sobre la base del factor de ponderación de tramas (S46). Cuando se halla el factor de ponderación de campos, la unidad de descodificación de longitud variable VLD descodifica tanto el factor de ponderación de tramas como el factor de ponderación de campos (S43, S44).
Por otro lado, cuando el valor de la “AFF” es “0” que indica que no se acciona la conmutación de trama / campo de una forma de bloque a bloque (No en S21), se descodifica el factor de ponderación de imágenes (S22).
Por lo tanto, mediante el empleo del método de codificación / descodificación de imágenes de acuerdo con la presente realización, se realiza la conmutación de trama / campo de una forma de bloque a bloque. Además, el
15 factor de ponderación de campos puede generarse sobre la base del factor de ponderación de tramas incluso cuando se abrevia el factor de ponderación de campos.
(Tercera realización)
La presente realización describe un caso en el que la estructura de datos del área de imagen es diferente de la que se ilustra en la primera realización.
Las figuras 20A, 20B y 20C son unos diagramas que muestran unos ejemplos de la estructura de datos del área de imagen de acuerdo con la presente realización. Esta muestra una estructura de datos detallada de un
25 “encabezamiento” cuando la “información de codificación de tramas de imagen” que está incluida en un área de información común en un área de imagen indica “1” y la imagen se codifica de una forma trama a trama. La presente realización ilustra un ejemplo de la estructura del “encabezamiento” del cual puede abreviarse el factor de ponderación de tramas.
Tal como se muestra en las figuras 20A y 20B, el “encabezamiento” incluye la “información de presencia / ausencia de factor de tramas” así como la “AFF”. La “información de presencia / ausencia de factor de tramas” es una bandera que indica si el “encabezamiento” incluye o no el factor de ponderación de tramas. Por ejemplo, la bandera se establece a “1” cuando se halla el factor de ponderación de tramas y se establece a “0” cuando se abrevia el factor de ponderación de tramas.
35 La figura 20A es un caso en el que tanto la “AFF” como la “información de presencia / ausencia de factor de tramas” se establecen a “1” y se transmite el factor de ponderación de tramas. La figura 20B es un caso en el que la “AFF” se establece a “1” y la “información de identificación de factor de tramas” se establece a “0”. La figura 20C es un caso en el que la conmutación de campo / trama una forma de bloque a bloque no se acciona debido a que la “AFF” se establece a “0”.
La figura 21 es un diagrama de flujo que muestra una secuencia de procesamiento de codificación con respecto a los factores de ponderación con los que opera la unidad de codificación de longitud variable VLC de acuerdo con la presente realización.
45 En primer lugar, la unidad de codificación de longitud variable VLC codifica la “AFF” que indica que se acciona la conmutación de una forma de bloque a bloque (S51) cuando el valor de la “AFF” es “1” y tiene lugar la conmutación de trama / campo de una forma de bloque a bloque (Sí en S10).
Además, la unidad de codificación de longitud variable VLC determina si generar o no un factor de ponderación de tramas sobre la base de un factor de ponderación de campos (S52). Cuando un factor de ponderación de tramas se genera sobre la base de un factor de ponderación de campos, la unidad de codificación de longitud variable VLC codifica una información que indica la generación del factor de ponderación de tramas, y el factor de ponderación de campos (S56, S57). Cuando el factor de ponderación de tramas no se genera sobre la base del factor de
55 ponderación de campos (No en S52), la unidad de codificación de longitud variable VLC codifica una información que indica la presencia / ausencia del factor de ponderación de tramas así como el factor de ponderación de campos y el factor de ponderación de tramas (S53 ~ S55).
Por otro lado, cuando el valor de la “AFF” es “0” y la conmutación de trama / campo de una forma de bloque a bloque no tiene lugar (No en S10), se realiza el mismo procesamiento de codificación que se describe en la figura 15 (S11, S12).
La figura 22 es un diagrama de flujo que muestra una secuencia de procesamiento de descodificación con respecto a los factores de ponderación con los que opera la unidad de descodificación de longitud variable VLD que se ilustra
65 en la figura 11. Este diagrama también se corresponde con la secuencia del procesamiento de codificación que se describe en la figura 21.
En primer lugar, cuando el valor de la “AFF” es “1” que indica que se acciona la conmutación de trama / campo de una forma de bloque a bloque (Sí en S21), en primer lugar la unidad de descodificación de longitud variable VLD descodifica la “AFF” (S20) y, a continuación, la información que indica la presencia / ausencia del factor de ponderación de tramas (S61).
5 A continuación, la unidad de descodificación de longitud variable VLD determina si se halla o no el factor de ponderación de tramas (S62), descodifica el factor de ponderación de campos (S65) cuando se halla el factor de ponderación de tramas no (Sí en S62) y genera un factor de ponderación de tramas sobre la base del factor de ponderación de campos (S66). Cuando se halla el factor de ponderación de tramas (No en S62), se descodifican tanto el factor de ponderación de campos como el factor de ponderación de tramas (S63, S64).
Por otro lado, cuando el valor de la “AFF” es “0” que indica que no se acciona la conmutación de trama / campo de una forma de bloque a bloque (No en S21), la unidad de descodificación de longitud variable VLD descodifica un factor de ponderación de imágenes (S22).
15 Por lo tanto, mediante el empleo del método de codificación / descodificación de imágenes de acuerdo con la presente realización, se realiza la conmutación de campo / trama -de una forma de bloque a bloque. Además, el factor de ponderación de tramas puede generarse sobre la base del factor de ponderación de campos incluso cuando se abrevia el factor de ponderación de tramas.
(Cuarta realización)
Además, el procesamiento que se muestra en cada una de las realizaciones anteriores puede llevarse a cabo con facilidad en un sistema informático independiente mediante la grabación del programa para realizar el método de
25 codificación / descodificación de imágenes que se ha descrito en cada una de las realizaciones anteriores en un medio de almacenamiento tal como un disco flexible o similares.
La figura 23 es una ilustración para llevar a cabo el método de codificación / descodificación de imágenes que se ha descrito en cada una de las realizaciones anteriores en el sistema informático usando el programa que se graba en el medio de almacenamiento tal como un disco flexible o similares.
La figura 23B muestra una apariencia completa de un disco flexible, su estructura en sección transversal y propio el disco flexible mientras que la figura 23A muestra un ejemplo de un formato físico del disco flexible como un cuerpo principal de un medio de almacenamiento. Un disco flexible FD está contenido en una cubierta F con una pluralidad
35 de pistas Tr que están formadas concéntrica desde la periferia hasta el interior sobre la superficie del disco, y cada pista se divide en 16 sectores Se en la dirección angular. Por lo tanto, el programa se almacena en un área asignada para este en el disco flexible FD.
La figura 23C muestra una estructura para grabar y leer el programa en el disco flexible FD. Cuando el programa se graba en el disco flexible FD, el sistema informático Cs escribe en el programa por medio de una unidad de disco flexible. Cuando el aparato de codificación y el aparato de descodificación se construyen en el sistema informático usando el programa en el disco flexible, el programa se lee a partir del disco flexible y, a continuación, se transfiere al sistema informático por la unidad de disco flexible.
45 La explicación anterior se realiza basándose en una suposición de que un medio de almacenamiento es un disco flexible, pero el mismo procesamiento también puede realizarse usando un disco óptico. Además, el medio de almacenamiento no se limita a un disco flexible y un disco óptico, sino que puede usarse cualquier otro medio tal como una tarjeta de CI y un casete de ROM capaz de grabar un programa.
(Quinta realización)
Lo siguiente es una descripción para las aplicaciones del método de codificación / descodificación de imágenes que se ha ilustrado en las realizaciones que se han mencionado en lo que antecede y un sistema que usa las mismas.
55 La figura 24 es un diagrama de bloques que muestra una configuración global de un sistema de suministro de contenido ex100 para realizar un servicio de entrega de contenido. El área para proporcionar servicio de comunicación se divide en unas células de un tamaño deseado, y unos sitios de célula ex107 ~ ex110, que son estaciones inalámbricas fijas, se colocan en unas células respectivas.
Este sistema de suministro de contenido ex100 está conectado a unos aparatos tales como un ordenador ex111, un PDA (Personal Digital Assistant, asistente digital personal) ex112, una cámara ex113, un teléfono móvil ex114 y un teléfono móvil con una cámara ex115 por medio de, por ejemplo, Internet ex101, un proveedor de servicios de Internet ex102, una red de telefonía ex104, así como los sitios de célula ex107 ~ ex110.
65 No obstante, el sistema de suministro de contenido ex100 no se limita a la configuración que se muestra en la figura 24 y puede conectarse a una combinación de cualquiera de los mismos. Así mismo, cada aparato puede conectarse
directamente a la red de telefonía ex104, no a través de los sitios de célula ex107 ~ ex110.
La cámara ex113 es un aparato capaz de filmar vídeo tal como una cámara de vídeo digital. El teléfono móvil ex114 puede ser un teléfono móvil de cualquiera del siguiente sistema: un sistema de PDC (Personal Digital
5 Communications, Comunicaciones Digitales Personales), un sistema de CDMA (Code Division Multiple Access, acceso múltiple por división de código), un sistema de W-CDMA (Wideband -Code Division Multiple Access, acceso múltiple por división de código de banda ancha) o un sistema de GSM (Global System for Mobile Communications, Sistema Global para Comunicaciones Móviles), un PHS (Personal Handyphone System, sistema de teléfono de mano personal) o similares.
Un servidor de flujo continuo ex103 está conectado a la cámara ex113 por medio de la red de telefonía ex104 y también el sitio de célula ex109, que realiza una distribución en directo o similares usando la cámara ex113 sobre la base de los datos codificados que se transmiten a partir del usuario. Uno cualquiera de la cámara ex113, el servidor que transmite los datos y similares puede codificar los datos. Los datos de imágenes en movimiento que se filman
15 por una cámara ex116 pueden transmitirse al servidor de flujo continuo ex103 por medio del ordenador ex111. En este caso, o bien la cámara ex116 o bien el ordenador ex111 puede codificar los datos de imágenes en movimiento. Un LSI ex117 que está incluido en el ordenador ex111 y la cámara ex116 realiza el procesamiento de codificación. El soporte lógico para codificar y descodificar imágenes puede integrarse en cualquier tipo de medio de almacenamiento (tal como un CD-ROM, un disco flexible y un disco duro) que es un medio de registro que es legible por el ordenador ex111 o similares. Además, el teléfono móvil con una cámara ex115 puede transmitir los datos de imágenes en movimiento. Estos datos de imágenes en movimiento son los datos que se codifican por el LSI que está incluido en el teléfono móvil ex115.
El sistema de suministro de contenido ex100 codifica contenidos (tal como un vídeo en directo de música) que se
25 filman por un usuario usando la cámara ex113, la cámara ex116 o similares de la misma forma que se ha mostrado en las realizaciones que se han mencionado en lo que antecede y transmite los mismos al servidor de flujo continuo ex103, mientras que el servidor de flujo continuo ex103 hace la entrega por flujos de los datos de contenido a los clientes a petición de estos. Los clientes incluyen el ordenador ex111, el PDA ex112, la cámara ex113, el teléfono móvil ex114, y así sucesivamente, capaces de descodificar los datos codificados que se han mencionado en lo que antecede. En el sistema de suministro de contenido ex100, por lo tanto los clientes pueden recibir y reproducir los datos codificados, y pueden recibir, descodificar y reproducir adicionalmente los datos en tiempo real con el fin de realizar una difusión personal.
Cuando cada aparato en este sistema realiza una codificación o descodificación, puede usarse el aparato de
35 codificación de imágenes o el aparato de descodificación de imágenes que se han mostrado en las realizaciones que se han mencionado en lo que antecede.
Un teléfono celular se explicará como un ejemplo de tal aparato.
La figura 25 es un diagrama que muestra el teléfono móvil ex115 usando el método de codificación / descodificación de imágenes que se ha explicado en las realizaciones que se han mencionado en lo que antecede. El teléfono móvil ex115 tiene una antena ex201 para comunicarse con el sitio de célula ex110 por medio de ondas de radio, una unidad de cámara ex203 tal como una cámara de CCD capaz de filmar imágenes en movimiento y fijas, una unidad de visualización ex202 tal como un visualizador de cristal líquido para visualizar los datos tales como imágenes
45 descodificadas y similares que se filman por la unidad de cámara ex203 o que se reciben por la antena ex201, una unidad de cuerpo que incluye un conjunto de teclas de operación ex204, una unidad de salida de audio ex208 tal como un altavoz para emitir audio, una unidad de entrada de audio ex205 tal como un micrófono para introducir audio, un medio de almacenamiento ex207 para almacenar datos codificados o descodificados tales como datos de imágenes en movimiento o fijas que se filman por la cámara, datos de correos electrónicos recibidos y los de imágenes en movimiento o fijas, y una unidad de ranura ex206 para acoplar el medio de almacenamiento ex207 al teléfono móvil ex115. El medio de almacenamiento ex207 almacena en sí mismo un elemento de memoria flash, un tipo de EEPROM (Electrically Erasable and Programmable Read Only Memory, memoria de solo lectura eléctricamente borrable y programable) que es una memoria no volátil eléctricamente borrable de y reescribible en una cubierta de plástico tal como una tarjeta SD.
55 A continuación, el teléfono móvil ex115 se explicará con referencia a la figura 26. En el teléfono móvil ex115, una unidad de control principal ex311, que se diseña con el fin de controlar en conjunto cada unidad del cuerpo principal que contiene la unidad de visualización ex202 así como las teclas de operación ex204, se conecta de forma mutua a la unidad de circuito de suministro de potencia ex310, una unidad de control de entrada de operaciones ex304, una unidad de codificación de imágenes ex312, una unidad de interfaz de cámara ex303, una unidad de control de LCD (Liquid Crystal Display, visualizador de cristal líquido) ex302, una unidad de descodificación de imágenes ex309, una unidad de multiplexación / desmultiplexación ex308, una unidad de lectura / escritura ex307, una unidad de circuito de módem ex306 y una unidad de procesamiento de audio ex305 por medio de un bus síncrono ex313.
65 Cuando se acciona una tecla de fin de llamada o una tecla de encendido por una operación del usuario, la unidad de circuito de suministro de potencia ex310 abastece a las unidades respectivas con potencia a partir de una batería
con el fin de activar el teléfono móvil digital con una cámara ex115 como un estado preparado.
En el teléfono móvil ex115, la unidad de procesamiento de audio ex305 convierte las señales de audio que se reciben por la unidad de entrada de audio ex205 en modo de conversación en datos de audio digital bajo el control
5 de la unidad de control principal ex311 que incluye una CPU, una ROM y una RAM, la unidad de circuito de módem ex306 realiza un procesamiento de espectro de ensanchamiento para los datos de audio digital, y la unidad de circuito de comunicación ex301 realiza una conversión de digital a analógico y una conversión de frecuencia para los datos, con el fin de transmitir estos por medio de la antena ex201. Así mismo, en el teléfono móvil ex115, la unidad de circuito de comunicación ex301 amplifica los datos que se reciben por la antena ex201 en modo de conversación y realiza una conversión de frecuencia y la conversión de analógico a digital para los datos, la unidad de circuito de módem ex306 realiza un procesamiento de espectro de ensanchamiento inverso de los datos, y la unidad de procesamiento de audio ex305 convierte estos en datos de audio analógicos, con el fin de emitir estos por medio de la unidad de salida de audio ex208.
15 Además, cuando se transmite un correo electrónico en modo de comunicación de datos, los datos de texto del correo electrónico que se introducen mediante el accionamiento de las teclas de operación ex204 del cuerpo principal se envían al exterior a la unidad de control principal ex311 por medio de la unidad de control de entrada de operaciones ex304. En la unidad de control principal ex311, después de que la unidad de circuito de módem ex306 realice un procesamiento de espectro de ensanchamiento de los datos de texto y la unidad de circuito de comunicación ex301 realice la conversión de digital a analógico y la conversión de frecuencia para los datos de texto, los datos se transmiten al sitio de célula ex110 por medio de la antena ex201.
Cuando se transmiten datos de imagen en modo de comunicación de datos, los datos de imagen que se filman por la unidad de cámara ex203 se suministran a la unidad de codificación de imágenes ex312 por medio de la unidad de
25 interfaz de cámara ex303. Cuando estos no se transmiten, también es posible visualizar los datos de imagen que se filman por la unidad de cámara ex203 directamente en la unidad de visualización ex202 por medio de la unidad de interfaz de cámara ex303 y la unidad de control de LCD ex302.
La unidad de codificación de imágenes ex312, que incluye el aparato de codificación de imágenes tal como se explicado en la presente invención, comprime y codifica los datos de imagen que se suministran a partir de la unidad de cámara ex203 usando el método de codificación que se emplea por el aparato de codificación de imágenes tal como se muestra en la primera realización con el fin de transformar estos en datos de imagen codificados, y los envía al exterior a la unidad de multiplexación / desmultiplexación ex308. En este instante, el teléfono móvil ex115 envía al exterior el audio que se recibe por la unidad de entrada de audio ex205 durante la filmación con la unidad
35 de cámara ex203 a la unidad de multiplexación / desmultiplexación ex308 como datos de audio digital por medio de la unidad de procesamiento de audio ex305.
La unidad de multiplexación / desmultiplexación ex308 multiplexa los datos de imagen codificados que se suministran a partir de la unidad de codificación de imágenes ex312 y los datos de audio que se suministran a partir de la unidad de procesamiento de audio ex305, usando un método previamente determinado, a continuación la unidad de circuito de módem ex306 realiza un procesamiento de espectro de ensanchamiento de los datos multiplexados que se obtienen como resultado de la multiplexación, y por último la unidad de circuito de comunicación ex301 realiza una conversión de digital a analógico y transformación de frecuencia de los datos para la transmisión por medio de la antena ex201.
45 En lo que respecta a la recepción de datos de un archivo de imágenes en movimiento que está vinculado a una página Web o similares en modo de comunicación de datos, la unidad de circuito de módem ex306 realiza un procesamiento de espectro de ensanchamiento inverso para los datos que se reciben a partir del sitio de célula ex110 por medio de la antena ex201, y envía al exterior los datos multiplexados que se obtienen como resultado del procesamiento de espectro de ensanchamiento inverso.
Con el fin de descodificar los datos multiplexados que se reciben por medio de la antena ex201, la unidad de multiplexación / desmultiplexación ex308 desmultiplexa los datos multiplexados para dar un flujo codificado de datos de imagen y el de datos de audio, y suministra los datos de imagen codificados a la unidad de descodificación de
55 imágenes ex309 y los datos de audio a la unidad de procesamiento de audio ex305, de forma respectiva por medio del bus síncrono ex313.
A continuación, la unidad de descodificación de imágenes ex309, que incluye el aparato de descodificación de imágenes tal como se explicado en la invención que se ha mencionado en lo que antecede, descodifica el flujo codificado de los datos de imagen usando el método de descodificación que se corresponde con el método de codificación tal como se ha mostrado en las realizaciones que se han mencionado en lo que antecede para generar unos datos de imágenes en movimiento reproducidas, y suministra estos datos a la unidad de visualización ex202 por medio de la unidad de control de LCD ex302 y, por lo tanto, se visualiza los datos de imagen que están incluidos en el archivo de imágenes en movimiento que está vinculado a una página Web, por ejemplo. Al mismo tiempo, la 65 unidad de procesamiento de audio ex305 convierte los datos de audio en datos de audio analógicos, y suministra estos datos a la unidad de salida de audio ex208 y, por lo tanto, se reproducen los datos de audio que están
incluidos en el archivo de imágenes en movimiento que está vinculado a una página Web, por ejemplo.
La presente invención no se limita al sistema que se ha mencionado en lo que antecede debido a que la difusión digital con base en tierra o por satélite ha estado últimamente de actualidad y por lo menos o bien el aparato de 5 codificación de imágenes o bien el aparato de descodificación de imágenes que se ha descrito en las realizaciones que se han mencionado en lo que antecede puede incorporarse en un sistema de difusión digital tal como se muestra en la figura 27. De forma más específica, un flujo codificado de información de vídeo se transmite desde una estación de difusión ex409 hasta, o se comunica con, un satélite de difusión ex410 por medio de ondas de radio. Tras la recepción de este, el satélite de difusión ex410 transmite ondas de radio para la difusión. A continuación, una antena de uso doméstico ex406 con una función de recepción de difusión de satélite recibe las ondas de radio, y una televisión (receptor) ex401 o un decodificador de salón (STB, set top box) ex407 descodifica un flujo de bits codificado para su reproducción. El aparato de descodificación de imágenes tal como se ha mostrado en las realizaciones que se han mencionado en lo que antecede puede implementarse en el aparato de reproducción ex403 para leer y descodificar el flujo codificado que se graba en un medio de almacenamiento ex402 que es un
15 medio de registro tal como un CD y a DVD. En este caso, las señales de imágenes en movimiento reproducidas se visualizan en un monitor ex404. También puede concebirse implementar el aparato de descodificación de imágenes en el decodificador de salón ex407 conectado a un cable ex405 para una televisión por cable o la antena ex406 para la difusión por satélite y / o con base en tierra con el fin de reproducir las mismas en un monitor ex408 de la televisión ex401. El aparato de descodificación de imágenes puede incorporarse en la televisión, no en el decodificador de salón. Así mismo, un coche ex412 que tiene una antena ex411 puede recibir señales a partir del satélite ex410 o el sitio de célula ex107 para volver a reproducir imágenes en movimiento en un dispositivo de visualización tal como un sistema de navegación para coche ex413 fijado en el coche ex412.
Además, el aparato de codificación de imágenes tal como se ha mostrado en las realizaciones que se han
25 mencionado en lo que antecede puede codificar señales de imagen y grabar las mismas en un medio de almacenamiento. Como un ejemplo concreto, puede citarse una grabadora ex420 tal como una grabadora de DVD para grabar señales de imagen en un disco de DVD ex421, una grabadora de discos para grabar las mismas en un disco duro. Estas pueden grabarse en una tarjeta SD ex422. Cuando la grabadora ex420 incluye el aparato de descodificación de imágenes tal como se ha mostrado en las realizaciones que se han mencionado en lo que antecede, las señales de imagen que se graban en el disco de DVD ex421 o la tarjeta SD ex422 pueden reproducirse para su visualización en el monitor ex408.
En lo que respecta a la estructura del sistema de navegación para coche ex413, puede concebirse la estructura sin la unidad de cámara ex203, la unidad de interfaz de cámara ex303 y la unidad de codificación de imágenes ex312,
35 de entre las componentes que se muestran en la figura 26. Lo mismo es de aplicación para el ordenador ex111, la televisión (receptor) ex401 y otros.
Además, pueden concebirse tres tipos de implementaciones para un terminal tal como el teléfono móvil ex114; un terminal de envío / recepción que se implementa tanto con un codificador como con un descodificador, un terminal de envío que se implementa solo con un codificador, y un terminal de recepción que se implementa solo con un descodificador.
Tal como se ha descrito en lo que antecede, es posible usar el método de codificación de imágenes y el método de descodificación de imágenes que se han descrito en las realizaciones que se han mencionado en lo que antecede
45 para cualquiera de los aparatos y sistemas que se han mencionado en lo que antecede, y mediante el uso de estos métodos, pueden obtenerse los efectos que se han descrito en las realizaciones que se han mencionado en lo que antecede.
Será obvio que las realizaciones de la invención pueden variarse de muchas formas con respecto a la invención que se ha descrito de este modo. Tales variaciones no han de considerarse como un alejamiento con respecto al alcance de la invención, y la totalidad de tales modificaciones, como sería obvio para un experto en la materia, están previstas para su inclusión dentro del alcance de las siguientes reivindicaciones.
Por lo tanto, con el método de codificación / descodificación de imágenes de acuerdo con la presente invención, es
55 posible realizar la conmutación de campo / trama una forma por bloques y mejorar la eficiencia de predicción y la tasa de compresión.
Además, con el método de codificación / descodificación de imágenes de acuerdo con la presente invención, el factor de ponderación de campos se genera sobre la base del factor de ponderación de campos, por lo tanto, el factor de ponderación de campos puede abreviarse de los datos que van a transmitirse y, por lo tanto, la eficiencia de transmisión puede mejorarse. En consecuencia, su valor práctico es alto.
Susceptibilidad de aplicación industrial
65 La presente invención puede aplicarse al aparato de codificación de imágenes, el aparato de descodificación de imágenes y los métodos de los mismos para realizar una estimación de movimiento mediante una conmutación de
trama / campo de una forma de bloque a bloque, y es útil en especial para el aparato de codificación de imágenes tal como se ha descrito en lo que antecede para realizar una estimación de movimiento usando los factores de ponderación.

Claims (1)

  1. REIVINDICACIONES
    1. Un aparato de codificación de imágenes que codifica una imagen de una forma de bloque a bloque, comprendiendo el aparato de codificación de imágenes:
    5 una unidad de compensación de movimiento configurada para generar, cuando se realiza una codificación de tramas sobre un bloque que está incluido en la imagen, una imagen predictiva usando i) valores de píxel de una trama de referencia a la que hace referencia el bloque y ii) un factor de ponderación de tramas, y para generar, cuando se realiza una codificación de campos sobre el bloque, una imagen predictiva usando i) valores de píxel
    10 de un campo de referencia al que hace referencia el bloque y ii) un factor de ponderación de campos; y una unidad de codificación de longitud variable configurada para codificar solo el factor de ponderación de tramas sin codificar el factor de ponderación de campos y emitir una señal codificada que incluye i) una imagen codificada que se genera usando la imagen predictiva y ii) el factor de ponderación de tramas codificado, cuando la imagen tiene una estructura de tramas y la conmutación entre la codificación de tramas y la codificación de
    15 campos se realiza de forma adaptativa por bloque que está incluido en la imagen, en donde el factor de ponderación de campos se genera a partir el factor de ponderación de tramas cuando la imagen tiene la estructura de tramas y la conmutación entre la codificación de tramas y la codificación de campos se realiza de forma adaptativa por bloque que está incluido en la imagen.
    20 2. Un método de codificación de imágenes para codificar una imagen de una forma de bloque a bloque, comprendiendo el método de codificación de imágenes:
    generar, cuando se realiza una codificación de tramas sobre un bloque que está incluido en la imagen, una imagen predictiva usando i) valores de píxel de una trama de referencia a la que hace referencia el bloque y ii) un
    25 factor de ponderación de tramas, y generar, cuando se realiza una codificación de campos sobre el bloque, una imagen predictiva usando i) valores de píxel de un campo de referencia al que hace referencia el bloque y ii) un factor de ponderación de campos; y codificar solo el factor de ponderación de tramas sin codificar el factor de ponderación de campos y emitir una señal codificada que incluye i) una imagen codificada que se genera usando la imagen predictiva y ii) el factor de
    30 ponderación de tramas codificado, cuando la imagen tiene una estructura de tramas y la conmutación entre la codificación de tramas y la codificación de campos se realiza de forma adaptativa por bloque que está incluido en la imagen, en donde el factor de ponderación de campos se genera a partir el factor de ponderación de tramas cuando la imagen tiene la estructura de tramas y la conmutación entre la codificación de tramas y la codificación de campos
    35 se realiza de forma adaptativa por bloque que está incluido en la imagen.
ES10165422.6T 2002-10-01 2003-09-22 Dispositivo de codificación de imágenes, dispositivo de descodificación de imágenes y sus métodos Expired - Lifetime ES2535957T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002289303 2002-10-01
JP2002289303 2002-10-01

Publications (1)

Publication Number Publication Date
ES2535957T3 true ES2535957T3 (es) 2015-05-19

Family

ID=32063743

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10165422.6T Expired - Lifetime ES2535957T3 (es) 2002-10-01 2003-09-22 Dispositivo de codificación de imágenes, dispositivo de descodificación de imágenes y sus métodos

Country Status (13)

Country Link
US (4) US7864838B2 (es)
EP (3) EP2835975A3 (es)
JP (5) JP5281591B2 (es)
KR (4) KR100984610B1 (es)
CN (2) CN101188762B (es)
AU (1) AU2003264543C1 (es)
BR (1) BR0306560A (es)
CA (4) CA2763080C (es)
ES (1) ES2535957T3 (es)
MX (1) MXPA04003355A (es)
MY (1) MY144985A (es)
TW (2) TWI344794B (es)
WO (1) WO2004032521A1 (es)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
EP2835975A3 (en) * 2002-10-01 2016-03-09 Godo Kaisha IP Bridge 1 Image encoding device and method
US20090118019A1 (en) 2002-12-10 2009-05-07 Onlive, Inc. System for streaming databases serving real-time applications used through streaming interactive video
US8964830B2 (en) 2002-12-10 2015-02-24 Ol2, Inc. System and method for multi-stream video compression using multiple encoding formats
US8731054B2 (en) * 2004-05-04 2014-05-20 Qualcomm Incorporated Method and apparatus for weighted prediction in predictive frames
EP1790171B1 (en) * 2004-09-16 2018-03-28 Thomson Licensing DTV Method and apparatus for rapid video frame and field coding
JP4281721B2 (ja) * 2004-10-26 2009-06-17 ソニー株式会社 データ処理装置、データ処理方法、プログラムおよび記録媒体
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
US8457203B2 (en) 2005-05-26 2013-06-04 Ntt Docomo, Inc. Method and apparatus for coding motion and prediction weighting parameters
US8239766B2 (en) * 2005-09-27 2012-08-07 Qualcomm Incorporated Multimedia coding techniques for transitional effects
WO2007091779A1 (en) 2006-02-10 2007-08-16 Lg Electronics Inc. Digital broadcasting receiver and method of processing data
WO2007126196A1 (en) 2006-04-29 2007-11-08 Lg Electronics Inc. Digital broadcasting system and method of processing data
WO2007136166A1 (en) 2006-05-23 2007-11-29 Lg Electronics Inc. Digital broadcasting system and method of processing data
JP4624321B2 (ja) * 2006-08-04 2011-02-02 株式会社メガチップス トランスコーダおよび符号化画像変換方法
US7873104B2 (en) 2006-10-12 2011-01-18 Lg Electronics Inc. Digital television transmitting system and receiving system and method of processing broadcasting data
US8630346B2 (en) * 2007-02-20 2014-01-14 Samsung Electronics Co., Ltd System and method for introducing virtual zero motion vector candidates in areas of a video sequence involving overlays
KR101285887B1 (ko) 2007-03-26 2013-07-11 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101253185B1 (ko) 2007-03-26 2013-04-10 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101285888B1 (ko) 2007-03-30 2013-07-11 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
WO2009005326A2 (en) 2007-07-04 2009-01-08 Lg Electronics Inc. Digital broadcasting system and method of processing data
US8433973B2 (en) * 2007-07-04 2013-04-30 Lg Electronics Inc. Digital broadcasting system and method of processing data
JP5098081B2 (ja) * 2007-07-19 2012-12-12 オリンパス株式会社 画像処理方法および画像処理装置
KR20090012180A (ko) 2007-07-28 2009-02-02 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
CA2697468C (en) 2007-08-24 2012-08-21 Lg Electronics Inc. Digital broadcasting system and method of processing data in digital broadcasting system
CN101547010B (zh) * 2008-03-24 2011-07-06 华为技术有限公司 编码解码系统、方法及装置
FR2938146B1 (fr) * 2008-11-05 2010-12-10 Ateme Sa Procede et dispositif d'optimisation du debit d'encodage d'une image video en mode entrelace.
KR102491736B1 (ko) * 2011-06-15 2023-01-26 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 복호 방법 및 장치와, 부호화 방법 및 장치
WO2012172811A1 (ja) 2011-06-17 2012-12-20 パナソニック株式会社 動画像復号化装置および動画像復号化方法
CN103797795B (zh) * 2011-07-01 2017-07-28 谷歌技术控股有限责任公司 用于运动矢量预测的方法和设备
CN117041548A (zh) 2016-04-29 2023-11-10 世宗大学校产学协力团 用于对图像信号进行编码/解码的方法和设备
US10939125B2 (en) * 2016-04-29 2021-03-02 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signal

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US527442A (en) * 1894-10-16 Grain heater or steamer
DE3917567A1 (de) * 1989-05-30 1990-12-06 Siemens Ag Verfahren zu einer ermittlung eines entscheidungsergebnisses fuer ein halbbild/vollbild-datenkompressionsverfahrens
JP3092280B2 (ja) * 1991-07-30 2000-09-25 ソニー株式会社 画像信号の高能率符号化及び復号化装置
JP2586260B2 (ja) 1991-10-22 1997-02-26 三菱電機株式会社 適応的ブロッキング画像符号化装置
US6018363A (en) * 1994-04-28 2000-01-25 Canon Kabushiki Kaisha Image sensing apparatus with optical-axis deflecting device
JPH09121358A (ja) * 1995-10-25 1997-05-06 Matsushita Electric Ind Co Ltd 画像符号化及び復号化装置と方法
JPH09163376A (ja) * 1995-12-05 1997-06-20 Nippon Telegr & Teleph Corp <Ntt> 動画像のフレーム間符号化・復号方法および装置
US5686963A (en) * 1995-12-26 1997-11-11 C-Cube Microsystems Method for performing rate control in a video encoder which provides a bit budget for each frame while employing virtual buffers and virtual buffer verifiers
US6031575A (en) * 1996-03-22 2000-02-29 Sony Corporation Method and apparatus for encoding an image signal, method and apparatus for decoding an image signal, and recording medium
ATE425637T1 (de) * 1997-04-01 2009-03-15 Sony Corp Verfahren und vorrichtung zur bildkodierung und - dekodierung sowie aufzeichnungsmedium dazu
TW398131B (en) * 1997-06-20 2000-07-11 Matsushita Electric Industrial Co Ltd The image process method, the image process device and the data memory medium
JP3671286B2 (ja) * 1997-06-20 2005-07-13 松下電器産業株式会社 画像処理方法,画像処理装置,及びデータ記憶媒体
US6018368A (en) * 1997-07-11 2000-01-25 Samsung Electro-Mechanics Co., Ltd. Scalable encoding apparatus and method with improved function of scaling motion vector
US6094225A (en) * 1997-12-02 2000-07-25 Daewoo Electronics, Co., Ltd. Method and apparatus for encoding mode signals for use in a binary shape coder
US6574274B2 (en) * 1998-02-27 2003-06-03 Sony Corporation Picture signal processing system, decoder, picture signal processing method, and decoding method
US6310919B1 (en) * 1998-05-07 2001-10-30 Sarnoff Corporation Method and apparatus for adaptively scaling motion vector information in an information stream decoder
US6788740B1 (en) * 1999-10-01 2004-09-07 Koninklijke Philips Electronics N.V. System and method for encoding and decoding enhancement layer data using base layer quantization data
US20020027610A1 (en) * 2000-03-27 2002-03-07 Hong Jiang Method and apparatus for de-interlacing video images
US6847736B2 (en) * 2000-03-28 2005-01-25 Canon Kabushiki Kaisha In image compression, selecting field or frame discrete wavelet transformation based on entropy, power, or variances from the high frequency subbands
US6414719B1 (en) * 2000-05-26 2002-07-02 Sarnoff Corporation Motion adaptive median filter for interlace to progressive scan conversion
JP2002289303A (ja) 2001-03-28 2002-10-04 Tyco Electronics Amp Kk レバー駆動型コネクタ組立体
US6980596B2 (en) * 2001-11-27 2005-12-27 General Instrument Corporation Macroblock level adaptive frame/field coding for digital video content
US7376186B2 (en) * 2002-07-15 2008-05-20 Thomson Licensing Motion estimation with weighting prediction
US7903742B2 (en) * 2002-07-15 2011-03-08 Thomson Licensing Adaptive weighting of reference pictures in video decoding
EP2835975A3 (en) * 2002-10-01 2016-03-09 Godo Kaisha IP Bridge 1 Image encoding device and method
JP4481612B2 (ja) * 2002-10-01 2010-06-16 パナソニック株式会社 画像復号化装置及びその方法
US20040258162A1 (en) 2003-06-20 2004-12-23 Stephen Gordon Systems and methods for encoding and decoding video data in parallel
US7538266B2 (en) * 2006-03-27 2009-05-26 Yamaha Corporation Electronic musical apparatus for training in timing correctly
US20080181237A1 (en) * 2007-01-25 2008-07-31 Cisco Technology, Inc. Building communities of interest and selecting borders between them based on relative motion

Also Published As

Publication number Publication date
TW200709694A (en) 2007-03-01
KR100984629B1 (ko) 2010-09-30
KR101011121B1 (ko) 2011-01-25
US8194738B2 (en) 2012-06-05
CN1579098A (zh) 2005-02-09
JP4749516B2 (ja) 2011-08-17
JP2013102519A (ja) 2013-05-23
CN100352287C (zh) 2007-11-28
EP1549077A4 (en) 2008-01-23
EP2239949A2 (en) 2010-10-13
EP1549077A1 (en) 2005-06-29
JP2014099879A (ja) 2014-05-29
US7933330B2 (en) 2011-04-26
MXPA04003355A (es) 2004-07-08
JP5627762B2 (ja) 2014-11-19
CA2762936C (en) 2015-04-14
US20110158316A1 (en) 2011-06-30
AU2003264543A1 (en) 2004-04-23
EP2239949A3 (en) 2013-02-27
CA2763080A1 (en) 2004-04-15
CA2762936A1 (en) 2004-04-15
KR100984610B1 (ko) 2010-09-30
CA2762923A1 (en) 2004-04-15
KR20100126807A (ko) 2010-12-02
JP5674911B2 (ja) 2015-02-25
JP2011125069A (ja) 2011-06-23
US8265150B2 (en) 2012-09-11
US20110158321A1 (en) 2011-06-30
TWI344794B (en) 2011-07-01
CA2762923C (en) 2014-10-21
TW200408201A (en) 2004-05-16
EP2835975A2 (en) 2015-02-11
WO2004032521A1 (ja) 2004-04-15
CA2763080C (en) 2014-12-02
KR20050049422A (ko) 2005-05-25
US20080181297A1 (en) 2008-07-31
EP2239949B1 (en) 2015-02-25
KR20100058640A (ko) 2010-06-03
US20040246373A1 (en) 2004-12-09
JP2010136416A (ja) 2010-06-17
CA2468770C (en) 2013-03-05
KR20080089676A (ko) 2008-10-07
EP2835975A3 (en) 2016-03-09
KR101039987B1 (ko) 2011-06-09
CN101188762B (zh) 2010-06-09
BR0306560A (pt) 2004-11-30
AU2003264543B2 (en) 2008-05-22
AU2003264543C1 (en) 2009-01-08
US7864838B2 (en) 2011-01-04
JP5485431B2 (ja) 2014-05-07
MY144985A (en) 2011-12-15
JP2014090486A (ja) 2014-05-15
CA2468770A1 (en) 2004-04-15
JP5281591B2 (ja) 2013-09-04
CN101188762A (zh) 2008-05-28
TWI356595B (en) 2012-01-11

Similar Documents

Publication Publication Date Title
ES2535957T3 (es) Dispositivo de codificación de imágenes, dispositivo de descodificación de imágenes y sus métodos
ES2408241T3 (es) Aparato de codificación de imágenes en movimiento
ES2638189T3 (es) Procedimiento de descodificación de imágenes en movimiento
ES2644448T3 (es) Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento
ES2382991T3 (es) Procedimiento de codificación de video
ES2368908T3 (es) Procedimiento de codificación y decodificación de imágenes en movimiento.
JP4481612B2 (ja) 画像復号化装置及びその方法
JP4481970B2 (ja) 画像符号化装置及びその方法
JP2004120138A (ja) 動画像符号化方法および動画像復号化方法
BRPI0306560B1 (pt) Aparelho de codificação de imagem, aparelho de decodificação de imagem e métodos