MX2013000995A - Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen, aparato de decodificacion de imagen y aparato de codificacion/decodificacion de imagen. - Google Patents
Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen, aparato de decodificacion de imagen y aparato de codificacion/decodificacion de imagen.Info
- Publication number
- MX2013000995A MX2013000995A MX2013000995A MX2013000995A MX2013000995A MX 2013000995 A MX2013000995 A MX 2013000995A MX 2013000995 A MX2013000995 A MX 2013000995A MX 2013000995 A MX2013000995 A MX 2013000995A MX 2013000995 A MX2013000995 A MX 2013000995A
- Authority
- MX
- Mexico
- Prior art keywords
- reference image
- motion vector
- image
- list
- adjacent
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/94—Vector quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/567—Motion estimation based on rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Un método de codificación de imagen que incluye: sumar a una lista de candidatos, un primer vector de movimiento adyacente como un candidato para un vector de movimiento predicho para ser utilizado para codificar el vector (S701) de movimiento actual; seleccionar el vector de movimiento predicho a partir de la lista (S702) de candidatos; y codificar el vector (S703) de movimiento actual, en donde la suma (S701), el primer vector de movimiento adyacente que indica una posición en una primera imagen de referencia incluida en una primera lista de imagen de referencia se suma a la lista de candidatos para el vector de movimiento actual que indica una posición en una segunda imagen de referencia incluida en una segunda lista de imagen de referencia.
Description
METODO DE CODIFICACION DE IMAGEN, METODO DE DECODIFICACION DE
IMAGEN, APARATO DE CODIFICACION DE IMAGEN, APARATO DE
DECODIFICACION DE IMAGEN Y APARATO DE
CODIFICACION/DECODIFICACION DE IMAGEN
I
CAMPO DE LA INVENCION
i
La presente invención se relaciona con un método de codificación de imagen, de codificación de una imagen con predicción, y un método de decodificación de imagen de decodificación de una imagen con predicción.
ANTECEDENTES DE LA INVENCIÓN
i
Un aparato de codificación de imagen generalmente comprime una cantidad de información utilizando redundancia de imágenes (que incluye imágenes fijas e imágenes en movimiento) en direcciones espaciales y temporales. Aquí, la transformación en un dominio de frecuencia se utiliza como el método de compresión utilizando redundancia en la dirección espacial. Además, se utiliza interpredicción como el método de compresión utilizando redundancia en la dirección i
temporal. La interpredicción también se denomina predicción interimágenes . ,
Cuando se codifica cierta imagen, el aparato codificador de imagen que utilizá la interpredicción usa, como una imagen de referencia, 1 una imagen codificada localizada antes o después de la imagen actual que va a ser
! REF: 238261 codificada en el orden de presentación. Subsecuentemente, el aparato codificador de imagen calcula un vector de movimiento de la imagen actual con respecto a ía imagen de referencia.
Después, el aparato codificador de imagen obtiene datos de imagen predichos que resultan de compensación de t
¡
movimiento en base en el vector dé movimiento. Después, el aparato codificador de imagen obtiene una diferencia entre
i
los datos de imagen de la imagen ac¿ual y los datos de imagen
i
predicha. Después, el aparato codificador de imagen codifica la diferencia obtenida. En consecuencia, el aparato
i
codificador de imagen elimina la redundancia en la dirección
I
temporal . ¡
El aparato codificador de imagen de acuerdo con el esquema de codificación de imagen ¿el movimiento denominado
H.264 (véase la referencia que no es, patente 1) el cual ya ha sido estandarizado utiliza tres tipos de imágenes, es decir, i
la imagen I, la imagen P y la imagen B para comprimir la cantidad de información. El aparato J codificador de imagen no realiza interpredicción sobre la imagen I. En otras palabras, el aparato codificador de imagen j realiza intrapredicción sobre la imagen I. La intrapredicción también se denomina predicción intraimagen. ¡
Además, el aparato codificador de imagen realiza interpredicción sobre la imagen P con referencia a una imagen codificada localizada antes o después de la imagen actual en el orden de presentación. Además, él aparato codificador de i
imagen realiza interpredicción sobre la imagen B con referencia a dos imágenes codificadas localizadas antes o después de la imagen actual en el orden de presentación.
En la interpredicción, el aparato codificador de imagen genera una lista de referencia (también denominada una lista de imagen de referencia) para ¡ identificar una imagen de
j
referencia. En la lista de ¡referencia se asignan i
clasificaciones de imagen de rejferencia a imágenes de referencia codificadas a las cuales j se hará referencia en la
I
interpredicción. Por ejemplo, el aparato codificador de imagen retiene dos listas de referencia (LO, Ll) para hacer referencia a dos imágenes para la imagen B.
La figura 33 ilustra un ejemplo de listas de referencia. La primera lista de imagen de referencia (LO) de i
la figura 33 es un ejemplo de Una lista de imagen de
i
referencia que corresponde a una primera dirección de predicción para la predicción bidireccional . En la primera lista de imagen de referencia de la ' figura 33, se asigna una clasificación de imagen de referencia, indicado por 0 a una imagen de referencia
Además, se asigna una
indicada por 1 a una
presentación 1. Además, una clasificación de imagen de referencia indicada por 2 se asigna a una imagen de
i
I
referencia R3 en un orden de presentación 0.
En otras palabras, en la primera lista de imagen de
I
referencia de la figura 33 se asigna una clasificación de i
imagen de referencia menor a uña imagen de referencia i
conforme la imagen de referencia sé encuentra más cercana a la imagen actual en el orden de presentación.
Por otra parte, la segunda lista de imagen de i
referencia (Ll) de la figura 33 es un ejemplo de una lista de
I
imagen de referencia que correspondje a una segunda dirección
I
de predicción para la predicción bidireccional . En la segunda i
lista de imagen de referencia de la: figura 33, se asigna una clasificación de imagen de referencia indicado por 0 a la imagen de referencia R2 en el de presentación 1.
Además, una clasificación de imagen de referencia indicada por 1 se asigna a la imagen de referencia Rl en el orden de presentación 2. Además, una clasificación de imagen de i
referencia indicada por 2 se asigna ja la imagen de referencia
R3 en el orden de presentación 0. ¡
i
De esta manera, existen casos en donde dos
I
clasificaciones de imagen de referencia diferentes se asignan
I
a una imagen de referencia particular (la imagen de
I
referencia Rl o R2 en la figura 33 )¡ incluidos en dos listas de imagen de referencia. Además, existen casos en donde la misma clasificación de imagen de referencia se asigna a una imagen de referencia particular (imagen de referencia R3 en
i
I
I
!
la figura 33) incluida en las dos listas de imagen de referencia .
La predicción utilizando únicamente la primera lista de imagen de referencia (LO) |se denomina la predicción
LO. La predicción utilizando únicamente la segunda lista de
i
imagen de referencia (Ll) se denomina la predicción Ll .
La predicción utilizando ambas de la primera lista de imagen de referencia y la segunda lista dé imagen de referencia se denomina una predicción bidireccional o una biprediccion.
En la predicción LO, con frecuencia se utiliza una dirección hacia adelante como una dirección de predicción.
En la predicción Ll, con frecuencia! se utiliza una dirección
I
hacia atrás como una dirección de predicción. En otras
i
palabras, la primera lista de; imagen de referencia corresponde a la primera dirección de predicción y la segunda
I
lista de imagen de referencia corresponde a la segunda
i
dirección de predicción. !
En base en estas rela iones, la dirección de predicción se categoriza en una deí la primera dirección de predicción, la segunda dirección de predicción y la bidirección. Además, cuando la dirección de predicción es la
I
bidirección, también puede estar representada como predicción
i
bidireccional o como biprediccion. ¡
i
El esquema de codificación' de imagen H.264 tiene un modo de estimación de vector de movimiento como un modo de
i
I
j
codificación para el bloque que va a ser codificado en la imagen B. En el modo de estimación' de vector de movimiento, el aparato de codificación de imagen estima un vector de movimiento para un bloque que va a ser codificado con referencia a una imagen de referencia. El aparato de codificación de imagen genera datos de imagen predichos utilizando la imagen de referencia y el vector de movimiento.
I
Después, el aparato de codificación de imagen codifica:
(i) una diferencia entre los datos ¡de imagen predichos y los datos de imagen del bloque que va a ¡ ser codificado, y (ii) el vector de movimiento que va a ser utilizado para generar los datos de imagen predichos . j
El modo de estimación de vector de movimiento puede utilizar la predicción bidireccional para generar una imagen predicha con referencia a dos imágenes codificadas
i
localizadas antes o después de la imagen actual. Ademas, el modo de estimación de vector de movimiento puede utilizar la
I
predicción unidireccional para generar una imagen predicha í
con referencia a una imagen codificada localizada antes o después de la imagen actual. Después, una de la predicción bidireccional y la predicción unidireccional se selecciona para un bloque que va a ser codificado.
i
Cuando se codifica un vector de movimiento en el modo de estimación de vector de movimiento, el aparato de i
codificación de imagen genera uii vector de movimiento
j
predicho a partir de un vector de ¡ movimiento de un bloque, tal como un bloque codificado adyacente al bloque actual. El aparato de codificación de imagen codifica una diferencia entre el vector de movimiento y ¡el vector de movimiento predicho. En consecuencia, el aparato de codificación de imagen reduce la cantidad de información. El ejemplo específico se describirá con referencia a la figura 34.
La figura 34 ilustra un bloque actual que va a ser
I
codificado, un bloque A adyacente y un bloque B adyacente y un bloque C adyacente. El bloque A adyacente es un bloque codificado adyacente a la izquierda del bloque actual. El bloque B adyacente es un bloque , codificado adyacente por encima del bloque actual. El bloque ¡ C adyacente es un bloque codificado adyacente a la derecha superior del bloque actual.
En la figura 34, el bloque A adyacente ha sido codificado con la predicción bidireccional y tiene un vector de movimiento MvL0_A en la primera dirección de predicción y
i
un vector de movimiento MvLl_A en > la segunda dirección de i
predicción. Aquí, el vector de movimiento en la primera predicción es un vector de movimiento que indica una posición en una imagen de referencia identificada por la primera lista de imagen de referencia. El vector de movimiento en la segunda dirección de predicción es ¡ un vector de movimiento que indica una posición en una1 imagen de referencia identificada por la segunda lista de i imagen de referencia.
Además, el bloque B adyacente ha sido codificado con la predicción unidireccional i y tiene un vector de i
movimiento MvL0_B en la primera ¡dirección de predicción. Además, el bloque C adyacente haj sido codificado con la predicción bidireccional y tiene jun vector de movimiento MvL0_C en la primera dirección de predicción y un vector de movimiento MvLl_C en la segunda ¡dirección de predicción. Además, el bloque actual es un bloque que va a ser codificado con la predicción bidireccional | y tiene un vector de movimiento MvLO en la primera direjcción de predicción y un vector de movimiento MvLl en la segunda dirección de predicción. ¡
I
El aparato de codificación de imagen genera un vector de movimiento predicho PMvLO que corresponde a la primera dirección de predicción,! utilizando un bloque
I
adyacente que tiene un vector de movimiento en la primera
i
dirección de predicción, cuando sé codifica el vector de i
movimiento MvLO en la primera dirección de predicción del
i
bloque actual. De manera más específica, el aparato de codificación de imagen genera el vector de movimiento predicho PMvLO utilizando el vector j de movimiento MvL0_A del bloque A adyacente, el vector de movimiento MvL0_B del bloque
I
B adyacente y el vector de movimiento MvL0_C del bloque C adyacente . !
En otras palabras, el aparato de codificación de imagen utiliza un vector de movimiento en la primera dirección de predicción de un bloque adyacente al bloque
i
actual, cuando codifica el vector !de movimiento vLO en la
í
primera dirección de predicción del bloque actual. Después, i
el aparato de codificación de imagen codifica una diferencia
í
entre el vector de movimiento MvLO ly el vector de movimiento
I
predicho PMvLO . [
El vector de movimiento predicho PMvLO se calcula utilizando la mediana (MvL0__A, MvL0_B y MvL0_C) que es una ecuación para calcular una mediana j de valor (valor central) i
de los vectores de movimiento MvL0_A, MvL0_B y MvLO_C. La mediana está representada por las! siguientes ecuaciones 1 a 3.
[Fórmula matemática 1]
Mediana (x, y, z) = x + + z - Min (x, Min (y, z) )
- Max (x, Max (y, z) ) (Ecuación 1)
[Fórmula matemática 2]
(Ecuación 2)
[Fórmula mat
(Ecuación 3) aparato codificador de; imagen genera un vector de movimiento predicho PMvLl que ¡corresponde a la segunda
I
dirección de predicción utilizandoj un bloque adyacente que tiene un vector de movimiento en j la segunda dirección de predicción, cuando codifica el vector de movimiento MvLl en
I
la segunda dirección de predicción del bloque actual . De manera más específica, el aparato ke codificación de imagen genera el vector de movimiento predicho PMvLl utilizando el vector de movimiento MvLl_A, del ¡bloque A adyacente y el vector de movimiento MvLl_C del bloque C adyacente.
En otras palabras, el ap rato de codificación de
i
imagen utiliza un vector de movimiento en la segunda dirección de predicción de un bloque adyacente del bloque j
actual cuando codifica el vector de movimiento MvLl en la
i
i
segunda dirección de predicción del bloque actual. Después, el aparato de codificación de imagen codifica una diferencial
I
de vector de movimiento que es una diferencia entre el vector de movimiento MvLl y el vector de movimiento predicho PMvLl . El vector de movimiento predicho PM†L1 se calcula utilizando la mediana (MvLl_A, 0, y MvLl_C) y otros.
LISTA DE CITAS
I I
LITERATURA NO DE PATENTE
I
[NPL 1]
Cuando el número de vecto'res de movimiento en la !
i
I
misma dirección de predicción es menor, el número de vectores
I
de movimiento que se van a utilizar para calcular un vector de movimiento predicho eficiencia de codificación de los mejorará.
En el método un vector
de movimiento predicho, el aparato jde codificación de imagen utiliza únicamente los vectores de | movimiento en la primera dirección de predicción de bloques adyacentes, cuando calcula el vector de movimiento predicho PMvLO en la primera dirección de predicción del bloque actual como se describe en lo anterior. Aquí, el aparato de codificación de imagen no i
utiliza los vectores de movimiento en la segunda dirección de
I
predicción de los bloques adyacentes;.
Además, el aparato de ' codificación de imagen utiliza únicamente los vectores de ¡movimiento en la segunda
I
dirección de predicción de bloquejs adyacentes, cuando se calcula el vector de movimiento predicho PMvLl en la segunda i
dirección de predicción del bloque ¡actual. Aquí, el aparato de codificación de imagen no utiliza los vectores de movimiento en la primera dirección de predicción de los
I
bloques adyacentes . i
En otras palabras, los vectores de movimiento de los bloques adyacentes que para calcular un vector de movimiento en el método convencional. De esta manera, el vector de movimiento óptimo
i
no se deriva y no se mejorará la eficiencia de codificación.
De esta manera, la presente invención tiene el objetivo de proporcionar un método ¡de codificación de imagen y un método de decodificación de1 imagen para derivar un vector de movimiento predicho adecuado para mejorar la eficiencia de codificación de un vector de movimiento.
I
SOLUCION AL PROBLEMA
Con el fin de resolver los problemas un método de
I
codificación de imagen de acuerdó con un aspecto de la
i
presente invención es un método de codificación de una imagen
i
actual por bloque con predicción utilizando uno o ambos de una primera lista de imagen de referencia y una segunda lista de imagen de referencia, e incluye: agregar, a una lista candidata, un primer vector de movimiento adyacente como un
j
candidato para un vector de movimiento predicho para ser utilizado para codificar un vector ¡de movimiento actual, el
I
primer vector de movimiento adyacente es un vector de
I
movimiento de un bloque adyacente a un bloque actual incluido en la imagen actual, y el vector dé movimiento actual es un i
vector de movimiento del bloque actual; seleccionar el vector
i
de movimiento predicho para ser utilizado para codificar el vector de movimiento actual, a partir de la lista de candidatos que incluye el primer; vector de movimiento adyacente; y codificar el vector de movimiento actual
I
utilizando el vector de movimiento predicho seleccionado, en
i
!
donde en la adición, el primer de movimiento adyacente
se agrega a la lista de candidatos para el vector de movimiento actual, el primer vector de movimiento adyacente indica una posición en una primera imagen de referencia
i
incluida en la primera lista de imagen de referencia, y el
j
vector de movimiento actual indijca una posición en una segunda imagen de referencia incluida en la segunda lista de imagen de referencia. ¡
I
En consecuencia, el vector de movimiento adyacente correspondiente a la primera lista de imagen de referencia se agrega a la lista de candidatos quej corresponde a la segunda lista de imagen de referencia. En consecuencia, se incrementa el número de opciones de vectores í de movimiento predichos .
De esta manera es posible derivar j un vector de movimiento predicho adecuado para mejorar la eficiencia de codificación
I
del vector de movimiento actual . ·
I
Adicionalmente , en la adición, se puede agregar adicionalmente un segundo vector de j movimiento adyacente, el
¡
segundo vector de movimiento adyácente es un vector de
I
movimiento del bloque adyacente e indica una posición en la tercera imagen de referencia en la segunda lista de
imagen de referencia. ¡
En consecuencia, el vector de movimiento adyacente
i
que corresponde a la segunda lista dé imagen de referencia se agrega a la lista de candidatos que jcorresponde a la segunda
i
lista de imagen de referencia. En consecuencia, se incrementa el número de opciones de vectores! de movimiento predichos. De esta manera, es posible derivar un vector de movimiento predicho adecuado para mejorar la eficiencia de codificación del vector de movimiento actual. j
Además, en la suma: sel puede determinar si la segunda imagen de referencia es idéntica o no a la tercera imagen de referencia; el segundo vector de movimiento
i
adyacente se puede agregar a la lista de candidatos cuando se determina que la segunda imagen de ' referencia es idéntica a la tercera imagen de referencia; se puede determinar si la segunda imagen de referencia es idéntica o no a la primera imagen de referencia; y el primer vector de movimiento adyacente se puede agregar a la listja de candidatos cuando se determina que la segunda imagen de ¡referencia es idéntica a
I
la primera imagen de referencia. ¡
En consecuencia, únicamente cuando la imagen de referencia que corresponde al vector de movimiento actual es idéntica a la imagen de referencia que corresponde al vector de movimiento adyacente, el vector de movimiento adyacente se agrega a la lista candidata. De jesta manera, únicamente cuando el vector de movimiento adyacente es apropiado como un
I
candidato para un vector de movimiento predicho, el vector de movimiento adyacente se agrega a la ¡lista candidata. De esta manera, se deriva un vector de movimiento predicho apropiado.
i
i
i
j
Adicionalmente, en la suma: se puede determinar si la segunda imagen de referencia es idéntica o no a la primera imagen de referencia cuando se determina que la segunda imagen de referencia no es idéntica a la tercera imagen de referencia; y el primer vector movimiento adyacente se
puede agregar a la lista de candidatos cuando se determina que la segunda imagen de referencia no es idéntica a la tercera imagen de referencia y que la segunda imagen de referencia es idéntica a la primera jimagen de referencia.
En consecuencia, cuando el vector de movimiento actual corresponde a la segunda lista de imagen de referencia, el vector de movimiento !adyacente que corresponde a la segunda lista de imagen de referencia se agrega de modo preferencial a la lista candidata. e esta manera, se agrega i
un vector de movimiento adyacente más apropiado a la lista de candidatos como un candidato para ¡ un vector de movimiento predicho. !
Adicionalmente, en la sumá: se puede determinar si la segunda imagen de referencia es idéntica o no a la tercera
i
imagen de referencia al determinar si el orden de
i
presentación de la segunda imagen de referencia identificada
I
por la segunda lista de imagen de ¡referencia y una segunda
I
clasificación de referencia es iídéntica a un orden de presentación de la tercera imagen dé referencia identificada por la segunda lista de imagen de referencia y una tercera
i
I
clasificación de referencia; y sé puede determinar si la segunda imagen de referencia es idéntica o no a la primera imagen de referencia al determinar si el orden de presentación de la segunda imagen de referencia identificada por la segunda lista de imagen dé referencia y la segunda clasificación de referencia es idéntica o no a un orden de presentación de la primera imagen de referencia identificada i
por la primera lista de imagen de¡ referencia y una primera clasificación de referencia. ;
En consecuencia, si la imagen de referencia identificada por la primera lista de imagen de referencia es idéntica o no a la imagen de referencia identificada por la i
segunda lista de imagen de referencia se determina apropiadamente en base en los ordenes de presentación.
Además, en la suma, se piliede agregar un vector de movimiento que tenga una magnitud dé 0 como el candidato para
i
el vector de movimiento predicho, cuando se determina que la segunda imagen de referencia no es idéntica a la tercera
í
imagen de referencia y que la segunda imagen de referencia no
i
es idéntica a la primera imagen de referencia.
En consecuencia se suprime una disminución en el número de candidatos. De esta manera se evita un estado en
I
donde no existen candidatos en la lista de candidatos .
Además, en la suma, se pueden agregar una i
pluralidad de valores de clasificación y una pluralidad de
I
j
candidatos para el vector de movimiento predicho a la lista de candidatos de manera que los ¡ valores de clasificación estén en una correspondencia uno a uno con los candidatos del vector de movimiento predicho en la selección, un valor de clasificación se puede seleccionar ¡de la lista de candidatos como el vector de movimiento predicho y en la codificación el valor de clasificación seleccionado se puede codificar de manera que el código del valor de clasificación sea más grande en la medida en que el válor de clasificación sea
i
mayor. j
En consecuencia, el vector de movimiento predicho seleccionado es codificado apropiadamente. De esta manera, el codificador y el decodificador seleccionan el mismo vector de movimiento predicho. i
Además, en la suma, el primer vector de movimiento
i
adyacente del bloque adyacente se puede agregar a la lista de candidatos, el bloque adyacente es uno de un bloque adyacente a la izquierda, un bloque adyacente ;en la parte superior y un
i
bloque adyacente a la derecha superior con respecto al bloque actual. !
En consecuencia, se agrega una pluralidad de
i
vectores de movimiento adyacentes a la lista de candidatos
i
como candidatos para el vector de movimiento predicho. En consecuencia, se incrementa el numero de opciones de los vectores de movimiento predichos . ;
I
Además, un método de decodificación de imagen de acuerdo con un aspecto de la presente invención puede ser un método de decodificación de una imagen actual por bloque con predicción utilizando uno o ambos ! de una primera lista de imagen de referencia y una segunda lista de imagen de
i
referencia e incluye: agregar, a una lista de candidatos, un primer vector de movimiento adyacente como un candidato para un vector de movimiento predicho ¡ para ser utilizado para decodificar un vector de movimiento; actual, el primer vector de movimiento adyacente es un vector de movimiento de un i
bloque adyacente a un bloque actual incluido en la imagen actual, y el vector de movimientoi actual es un vector de movimiento del bloque actual; seleccionar el vector de movimiento predicho para ser utilizado para decodificar el vector de movimiento actual, a ¡partir de la lista de candidatos que incluye al primer vector de movimiento adyacente; y decodificar el vector de movimiento actual utilizando el vector de movimiento predicho seleccionado, en
i
donde, en la suma, el primer vector de movimiento adyacente se puede agregar a la lista de candidatos para el vector de movimiento actual, el primer vector! de movimiento adyacente indica una posición en una primeía imagen de referencia incluida en la primera lista de imagen de referencia y el i
vector de movimiento actual indicia una posición en una i
segunda imagen de referencia incluida en la segunda lista de
I
imagen de referencia. j
En consecuencia, el vector de movimiento adyacente i
que corresponde a una primera lista de imagen de referencia se agrega a la lista de candidatos que corresponde a la
I
segunda lista de imagen de referencia. En consecuencia se incrementa el número de opciones d'e vectores de movimiento
i
predicho. De esta manera, es posible derivar un vector de movimiento predicho adecuado para ¡mejorar la eficiencia de codificación del vector de movimiento actual.
Además, en' la suma, se puede agregar adicionalmente un segundo vector de movimiento advacente, el segundo vector de movimiento adyacente es un vector de movimiento del bloque
I
adyacente e indica una posición en una tercera imagen de referencia incluida en la segun'da lista de imagen de
I
referencia. ¡
I
En consecuencia, el vector de movimiento adyacente i
que corresponde a la segunda lista de imagen de referencia se agrega a la lista de candidatos que! corresponde a la segunda lista de imagen de referencia. En consecuencia, se incrementa el número de opciones de vectores ¡ de movimiento predicho.
De esta manera, es posible derivar] un vector de movimiento predicho adecuado para mejorar la eficiencia de codificación i
del vector de movimiento actual . j
i
Además, en la suma: se ¡puede determinar si la segunda imagen de referencia es idéntica o no a la tercera imagen de referencia; el segundo vector de movimiento adyacente se puede agregar a la lis¡ta de candidatos cuando se determina que la segunda imagen de| referencia es idéntica a la tercera imagen de referencia; se puede determinar si la segunda imagen de referencia es idéntica o no a la primera imagen de referencia; y el primer vector de movimiento adyacente se puede agregar a la lista de candidatos cuando se determina que la segunda imagen de1 referencia es idéntica a i
la primera imagen de referencia.
En consecuencia, únicamente cuando la imagen de referencia que corresponde al vector de movimiento actual es idéntica a la imagen de referencia ¡que corresponde al vector de movimiento adyacente, el vector de movimiento adyacente se agrega a la lista de candidatos. Así, únicamente cuando el vector de movimiento adyacente es apropiado como un candidato para un vector de movimiento predicho, el vector de
i
movimiento adyacente se agrega a í la lista de candidatos.
De esta manera se deriva un vector de movimiento predicho i
apropiado. i
i
Además, en la suma: se puede determinar si la i
segunda imagen de referencia es idéntica o no a la primera i
imagen de referencia cuando se determina que la segunda imagen de referencia no es idéntica a la tercera imagen de referencia; y el primer vector de, movimiento adyacente se
I
puede agregar a la lista de candidatos cuando se determina
I
que la segunda imagen de referencia no es idéntica a la i
tercera imagen de referencia y que la segunda imagen de referencia es idéntica a la primera imagen de referencia.
i
En consecuencia, cuando el vector de movimiento i
actual corresponde a la segunda lista de imagen de referencia, el vector de movimiento: adyacente que corresponde a la segunda lista de imagen referencia se agrega
preferencialmente a la lista de candidatos. De esta manera se i
agrega un vector de movimiento adyacente más apropiado a la i
lista de candidatos como un candidato para un vector de
I
movimiento predicho. i
I
Además, en la suma: se | determina si la segunda i
imagen de referencia es idéntica o no a la tercera imagen de referencia al determinar si el orden de presentación de la segunda imagen de referencia identificada por la segunda i
lista de imagen de referencia y una1 segunda clasificación de
I
referencia es idéntica o no al orden de presentación de la
I
tercera imagen de referencia identificada por la segunda lista de imagen de referencia y unaj tercera clasificación de referencia; y se puede determinar ¡si la segunda imagen de referencia es idéntica o no a la primera imagen de referencia al determinar si el orden de presentación de la segunda imagen de referencia identificada ;por la segunda lista de imagen de referencia y la segunda cljasificación de referencia es idéntica o no al orden de presentación de la primera imagen de referencia identificada i por la primera lista de imagen de referencia y una primera clasificación de referencia.
I
En consecuencia, si la imagen de referencia identificada en la primera lista de imagen de referencia es i
idéntica o no a la imagen de referencia identificada por la segunda lista de imagen de referencia se determina apropiadamente en base en los ordenes de presentación.
Además, al sumar, se puede agregar un vector de movimiento que tenga una magnitud dé 0 como el candidato para vector de movimiento predicho, cuando se determina que la segunda imagen de referencia no éts idéntica a la tercera imagen de referencia y que la segunda imagen de referencia no es idéntica a la primera imagen de r'eferencia.
I
' En consecuencia, se suprime la disminución en el número de candidatos. De esta manera se evita un estado en donde no existen candidatos en la lista de candidatos.
Además, en la suma, se pueden agregar una pluralidad de valores de clasificación y una pluralidad de candidatos para el vector de movimiento predicho a la lista i
de candidatos de manera que los valores de clasificación estén en una correspondencia uno a¡ uno con los candidatos para el vector de movimiento predictlo, en la decodificación,
I
se puede decodificar un valor de clasificación, el valor de clasificación es codificado de manera que un código del valor
I
i
I
I
de clasificación es más grande conforme aumenta el valor de clasificación y al seleccionar, ¡el vector de movimiento predicho correspondiente al valor de clasificación decodificado se puede seleccionar una lista de candidatos.
En consecuencia, el vector de movimiento predicho seleccionado es decodificado apropiadamente. De esta manera, i
el codificador y el decodificador seleccionan el mismo vector i
de movimiento predicho. j
Además, en la suma, el primer vector de movimiento
í
adyacente del bloque adyacente se púede agregar a la lista de candidatos, el bloque adyacente es uno de un bloque adyacente izquierdo, un bloque adyacente superior y un bloque adyacente derecho superior con respecto al bloque actual .
En consecuencia se agrega una pluralidad de vectores de movimiento adyacentes a¡ las listas de candidatos como candidatos para el vector ¡de movimiento predicho.
En consecuencia se incrementa el ! número de opciones de vectores de movimiento predichos. i
Además un aparato de acuerdo con un aspecto de la un aparato de codificación de imagen que codifique una imagen i
actual por bloque con predicción utilizando uno o ambos de
i
una primera lista de imagen de referencia y una segunda lista i
de imagen de referencia e incluye: una unidad de adición configurada para sumar, a la lista ;de candidatos, un primer vector de movimiento adyacente cómo un candidato para un vector de movimiento predicho para ser utilizado para codificar un vector de movimiento actual, el primer vector de
I
movimiento adyacente es un vector de movimiento de un bloque
(
adyacente a un bloque actual incluido en la imagen actual, y
i
el vector de movimiento es un vector de movimiento del bloque
I
actual; una unidad de selección configurada para seleccionar el vector de movimiento predicho j para ser utilizado para codificar el vector de movimiento! actual, a partir de la lista de candidatos que incluye el primer vector de movimiento adyacente; y una iunidad de codificación
I
configurada para codificar el vector de movimiento actual utilizando el vector de movimiento ¡predicho seleccionado, en donde la unidad de adición se puede configurar para sumar el
I
primer vector de movimiento adyacente a la lista de candidatos para el vector de movimiento actual, el primer
i
vector de movimiento adyacente indica una posición en una
i
primera imagen de referencia incluida en la primera lista de imagen de referencia y el vector del movimiento actual indica una posición en una incluida en la segunda lista de
En consecuencia, el métpdo de codificación de imagen se implementa como el aparato de codificación de imagen . !
Además, un aparato de decpdificación de imagen de
acuerdo con un aspecto de la invención puede ser un
aparato de decodificación de imagen; que decodifica una imagen actual por bloque con predicción utilizando una o ambas de i
una primera lista de imagen de referencia y una segunda lista de imagen de referencia, e incluye: una unidad de adición
I
configurada para sumar, a una lista de candidatos, un primer vector de movimiento adyacente como un candidato para un vector de movimiento predicho jiara ser utilizado para decodificar un vector de movimiento actual, el primer vector de movimiento adyacente es un vector de movimiento de un bloque adyacente a un bloque actual incluido en la imagen actual, y el vector de movimiento] actual es un vector de
I
movimiento del bloque actual; una unidad de selección configurada para seleccionar el vectior de movimiento predicho que se va a utilizar para decodificár el vector de movimiento
i
actual, a partir de la lista de candidatos que incluye el
¡
primer vector de movimiento adyacente; y una unidad de decodificación configurada para decodificár el vector de i
movimiento actual utilizando el¡ vector de movimiento i
predicho, en donde la unidad de adición se puede configurar para sumar el primer vector de movimiento adyacente a la lista de candidatos para el vector ¡de movimiento actual, el primer vector de movimiento adyacente indica una posición en i
una primera imagen de referencia incluida en la primera lista de imagen de referencia y el vector de movimiento actual
I
indica una posición en una segunda imagen de referencia incluida en la segunda lista de imagen de referencia.
En consecuencia, el método de decodificación de imagen se implementa como el aparato de decodificación de
i
imagen . !
Además, un aparato de codificación y de decodificación de imagen de acuerclo con un aspecto de la
j
presente invención puede ser un aparato de codificación y de i
decodificación de imagen que codifica una imagen actual por bloque y que decodifica una imagen actual por bloque, con predicción utilizando uno o ambos ¡ de una primera lista de imagen de referencia y una segunda lista de imagen de
I
referencia y que incluye: una unidad de adición configurada
i
para sumar, a una lista de candidatos, un primer vector de
j
movimiento adyacente como un candidato para un vector de
j
movimiento predicho para ser utiliízado para codificación o decodificación de un vector de movimiento actual, el primer
i
vector de movimiento adyacente es un vector de movimiento de un bloque adyacente a un bloque actual que va a ser procesado y que se incluye en la imagen actual que va a ser codificada o decodificada, y el vector de movimiento actual es un vector
I
de movimiento del bloque actual; juna unidad de selección configurada para seleccionar el vect'or de movimiento predicho que se va a utilizar para codificar o decodificar el vector de movimiento actual, a partir de la lista de candidatos que i
i
incluye el primer vector de movimiento adyacente; una unidad de codificación configurada para codificar el vector de movimiento actual utilizando el vector de movimiento predicho seleccionado; y una unidad de decodificación configurada para decodificar el vector de movimiento actual utilizando el vector de movimiento predicho seleccionado, en donde la unidad de adición se puede configurar para agregar ¡ el primer vector de i
movimiento adyacente a la lista! de candidatos para el vector de movimiento actual, 1 el primer vector de movimiento adyacente indica una posición en una primera imagen de referencia incluida en la primera lista de imagen de referencia y el vector de movimiento actual indica una posición en una segunda imagen de referencia incluida en la segunda lista de imagen de referencia.
En consecuencia, el aparato de codificación y de decodificación de imagen implement ambas de las funciones del aparato de codificación de imagen así como el aparato de decodificación de imagen. i
EFECTOS VENTAJOSOS DE LA INVENCIÓN
De acuerdo con la presenté invención, se deriva un i
vector de movimiento predicho adecuado para mejorar la i
eficiencia de codificación de un1 vector de movimiento. En consecuencia, es posible mejorar la eficiencia de codificación del vector de movimiento .
I
I
La figura 1 ilustra una cpnfiguración de un aparato de codificación de imagen de acuerdó con la modalidad 1;
la figura 2 ilustra un diagrama de flujo de operaciones realizadas por el aparato de codificación de
i
imagen de acuerdo con la modalidad 1;
la figura 3 ilustra un diagrama de flujo de
i
procesos para determinar una dirjección de predicción de
i
acuerdo con la modalidad 1; 1
!
i
la figura 4 ilustra un diagrama de flujo de procesos para calcular una lista de ¡candidatos de acuerdo con
I
la modalidad 1; i
i
¡
la figura 5 ilustra uri diagrama de flujo de
i
procesos para determinar un indicador de adición de acuerdo con la modalidad 1; ¡
la figura 6A ilustra un jejemplo de una lista de candidatos para la primera dirección! de predicción de acuerdo con la modalidad 1; i
I
la figura 6B ilustra un ejemplo de una lista de i
candidatos para la segunda dirección] de predicción de acuerdo
i
con la modalidad 1; J
i
la figura 7 ilustra un ¡ ejemplo de códigos de
i
clasificaciones de vector de movimiento predichas de acuerdo con la modalidad 1; !
I
la figura 8 ilustra proceros para seleccionar un
i
vector de movimiento predicho de con la modalidad 1;
la figura 9 ilustra una configuración de un aparato
¡
de decodificación de imagen de acuerdo con la modalidad 2;
la figura 10 ilustra un diagrama de flujo de operaciones realizadas por el aparato de decodificación de
j
imagen de acuerdo con la modalidad 2;
•la figura 11A ilustra una configuración de un aparato de codificación de imagen de acuerdo con la modalidad 3; j
I
la figura 11B ilustra ün diagrama de flujo de
i
operaciones realizadas por el apárato de codificación de imagen de acuerdo con la modalidad 3¡;
I
la figura 12A ilustra ¡la configuración de un aparato de decodificación de ima¡gen de acuerdo con la modalidad 4; j
i
la figura 12B ilustra un diagrama de flujo de operaciones realizadas por el aparato de decodificación de imagen de acuerdo con la modalidad
la figura 13 ilustra configuración de un
aparato de codificación y de decodificación de imagen de acuerdo con la modalidad 5; j
i
la figura 14 ilustra una 'configuración general de un sistema de suministro de para implementar
servicios de distribución de contenido;
í
la figura 15 ilustra una configuración general de
I
un sistema de difusión digital; j
la figura 16 ilustra un diagrama de bloques que ilustra un ejemplo de una configuración de una televisión;
la figura 17 ilustra unj diagrama de bloques que
i
ilustra un ejemplo de una configuración de una unidad reproductora/grabadora de información que lee y escribe información desde y sobre un medió de grabación que es un disco óptico;
la figura 18 ilustra1 un ejemplo de una configuración de un medio de grabación que es un disco óptico; j
la figura 19A ilustra uri ejemplo de un teléfono celular; !
I
la figura 19B ilustra un ejemplo de una configuración del teléfono celular; '
i
la figura 20 ilustra lina estructura de datos multiplexados ; ¡
I
la figura 21 ilustra esquemáticamente de que manera cada una de las corrientes es | multiplexada en datos multiplexados; |
la figura 22 ilustra como se almacena una corriente de video en una corriente de paquetes PES con mayor detalle;
i
la figura 23 ilustra una estructura de paquetes TS
I
y paquetes de fuente en los datos multiplexados;
la figura 24 ilustra una éstructura de datos de un PMT;
la figura 25 ilustra uña estructura interna de información de datos multiplexados ; j
i
la figura 26 ilustra una ¡estructura interna de una información de atributo de corriente;
la figura 27 ilustra etapas para identificar datos de video; j
la figura 28 ilustra un diagrama de bloques que ilustra un ejemplo de una configuración de un circuito
i
integrado para implementar el método de codificación de imagen y el método de decodificación de imagen de acuerdo con cada una de las modalidades; ¡
la figura 29 ilustra una configuración para
conmutar entre frecuencias de activáción;
la figura 30 ilustra etapas para identificar datos
I
de video y conmutar entre frecuencia's de activación;
i
la figura 31 ilustra un jejemplo de una tabla de búsqueda en la cual los estándar s de datos de video se í
asocian con las frecuencias de activación;
la figura 32A ilustra un ejemplo de una configuración para compartir un modulo de una unidad de procesamiento de señal ;
la figura 32B ilustra otro ejemplo de una
configuración para compartir un módulo de una unidad de procesamiento de señal; !
la figura 33 ilustra un ¡ejemplo de dos listas de imágenes de referencia; y
la figura 34 ilustra un ¡ejemplo del bloque actual
i
i
que va a ser codificado y tres bloques adyacentes .
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
Las modalidades de la! presente invención se describirán con referencia a las j figuras . Las modalidades descritas en lo siguiente indican ejemplos favorables y específicos de la presente invención. Los valores, formas, i
materiales, elementos constitutivos^ posiciones y conexiones
i
de los elementos constitutivos, etapas y ordenes de las etapas indicadas en las modalidades ¡ son ejemplos y no limitan la presente invención. La presente invención se limita
i
únicamente de acuerdo con las reivindicaciones . Aunque los elementos constitutivos que no ¡ se describen en las reivindicaciones independientes que ¡describen el concepto más
I
genérico de la presente invención! no son necesarios para resolver los problemas de la prdsente invención, se les describe como componentes de las modalidades favorables.
j
Además, la primera lista j de imagen de referencia
I
corresponde a la predicción LO y la segunda lista de imagen de referencia corresponde a la predicción Ll . Además, la i
primera lista de imagen de referencia corresponde a la primeras dirección de predicción y la segunda lista de imagen de referencia corresponde a la¡ segunda dirección de predicción. Inversamente, la primera lista de imagen de referencia puede corresponder a la predicción Ll y la segunda lista de imagen de referencia puede corresponder a la predicción LO. Similarmente, la lista de imagen de
referencia puede corresponder a 'la segunda dirección de predicción y la segunda lista de imagen de referencia puede
I
corresponder a la primera dirección jde predicción.
MODALIDAD í
i
La figura 1 es un diagrama de bloques que ilustra
i
una configuración de un aparato de Icodificación de imagen de
I
acuerdo con la modalidad 1. j
El aparato de codificación de imagen 100 en la figura 1 incluye una unidad de trarisformación ortogonal 102,
i
una unidad de cuantificación j 103, una unidad de cuantificación inversa 105, una unidad de transformación ortogonal inversa 106, una memoria de bloque 108, una memoria
I
de marco 109 , una unidad intraprédicción 110, una unidad interpredicción 111, una unidad del control interpredicción
i
114 , una unidad de determinación de tipo de imagen 113, una unidad de manejo de lista de imagen de referencia 115, una
j
unidad de determinación de adición 116, una unidad de codificación de longitud variable 104, una unidad de sustracción 101,. una unidad de adicjión 107 y una unidad de
I
conmutación 112 . ¡
i
La unidad de transformación ortogonal 102 realiza i
¡
la transformación sobre los datos ¡ de error predichos entre datos de imagen predichos generados por una unidad que se describirá posteriormente y una j secuencia de imagen de entrada a partir de un dominio de imagen a un dominio de i
frecuencia. La unidad de cuantificación 103 cuantifica los
I
datos de error predicho transformados en el dominio de
i
frecuencia. La unidad de cuantificación inversa 105 cuantifica de manera inversa los ¡datos de error predichos i
cuantificados por la unidad de cuantificación 103. La unidad de transformación ortogonal inversa 106 realiza la i
transformación sobre los datos de error predichos cuantificados por la unidad de cuantificación inversa 105 a partir del dominio de frecuencia al ¡dominio de imagen.
i
La memoria de bloque 108 es una memoria para almacenar una imagen decodificada generada a partir de los
i
datos de imagen predichos y los datos de error predichos
i
cuantificados de manera inversa por la unidad de cuantificación inversa 105 por bloque. La memoria 109 de
i
marco es una memoria para almacenar la imagen decodificada
1
por marco. !
La unidad de determinación de tipo de imagen 113
i
determina en cual tipo de imagen se codifica una secuencia de
!
imagen de entrada, ya sea una o una imagen P y genera información unidad
110 de intraprediccion genera los datos de imagen predichos a
¡
I
i
i
través de intrapredicción del bloque actual utilizando la imagen decodificada almacenada por bloque en la memoria de bloque 108. La unidad interprediccijón 111 genera los datos de imagen predichos a través de interpredicción del bloque actual utilizando la imagen decodificada almacenada por marco
i
en la memoria 109 de marco. i
I
La unidad de manejo de lista de imagen de referencia 115 genera una lista de referencia con los ordenes de presentación de las clasificaciones de imagen de
i
referencia para asignar las clasificaciones de imagen de i
referencia a imágenes de referencia, codificadas a las que se hará referencia en la interpredicción.
I
Aunque la unidad de manejo de lista de imagen de referencia 115 maneja las imágenes de referencia por las i
clasificaciones de imagen de referencia y los ordenes de i
presentación en la modalidad 1, puede manejar las imágenes de
i
referencia por clasificaciones de imagen de referencia y los ordenes de codificación. La unidjad de determinación de adición 116 determina si se agrega ó no un candidato para un
I
I
vector de movimiento predicho (vector de movimiento predicho
i
candidato) con referencia a la primera y segunda lista de
i
imagen de referencia generadas por ! la unidad de manejo de
I
lista de imagen de referencia 115. De manera más específica, la unidad de determinación de adición 116 determina si un vector de movimiento predicho candidato en la primera dirección se agrega o no a una lista de candidatos para la segunda dirección de predicción deí bloque codificado, en un método que se describirá posteriormente. Después, la unidad
I
de determinación de adición 116 establece un indicador de i
adición. |
La unidad de control interpredicción 114 determina un vector de movimiento predicho j para ser utilizado para codificación de manera que codifique un vector de movimiento utilizando uno de los vectores ¡ de movimiento predichos
i
candidatos que tiene el error más jpequeño con el vector de
I
movimiento derivado de la estimación de movimiento. Aquí, el i
error es un valor de diferencia entre el vector de movimiento
i
predicho candidato y el vector de movimiento derivado de la i
estimación de movimiento. ¡
Además, la unidad de control interpredicción 114
i
genera una clasificación de vector de movimiento predicha que i
corresponde al vector de movimiento ¡predicho determinado, por i
bloque. La unidad de control interpredicción 114 transmite
i
la clasificación de vector de movimiento predicha, la información de error de los vectores de movimiento predichos candidatos y las clasificaciones de imagen de referencia a la unidad de codificación de longitud variable 104.
i
La unidad de codificación ¡de longitud variable 104
i
codifica con longitud variable los datos de error de predicción cuantificados, un indicador de dirección interpredicción, las clasificaciones de imagen de referencia y la información de tipo de imagen 'para generar una corriente de bitios. 1
La figura 2 son las generalidades del procedimiento de procesos del método de codificación de imagen de acuerdo con la modalidad 1. La unidad de control interpredicción 114 determina una dirección de predicción cuando el bloque actual es codificado en el modo de e istimación de vector de movimiento (S101) . Posteriormente; la unidad de control interpredicción 114 determina si la dirección de predicción en el modo de estimación de vector 1 de movimiento es o no la predicción bidireccional (S102) . ¡
Cuando la dirección de predicción es la predicción bidireccional (si, en S102) , 'la unidad de control interpredicción 114 calcula una lista de vector de movimiento predicho candidato para cada una de la primera y segunda direcciones de prediccióni en un método que se describirá posteriormente (S103, S104).
Después, la unidad de determinación de adición 116 determina si el vector de movimiento¡ predicho candidato en la primera dirección de predicción se suma o no a la lista del vector de movimiento predicho carídidato para la segunda
I
dirección de predicción (S105) . ¡ Cuando la unidad de determinación de adición 116 determina que el vector de movimiento predicho candidato en la primera dirección de i
predicción se suma (si, en S105) , ta. unidad 114 de control de predicción suma el vector de movimiento predicho candidato en la primera dirección de predicción a la lista de lector de movimiento predicho candidato paral la segunda dirección de predicción (S106) . j
Después, la unidad de control interpredicción 114 selecciona el vector de movimiento predicho en la primera
i
dirección de predicción a partir de la lista del vector de movimiento predicho candidato paraj la primera dirección de predicción y el vector de movimiento predicho en la segunda
i
dirección de predicción a partir de la lista del vector de
I
movimiento predicho candidato paraj la segunda dirección de predicción. Después, la unidad de j codificación de longitud i
variable 104 codifica las clasificaciones de vector de movimiento predichas correspondientes a los vectores de movimiento predichos seleccionados y suma las clasificaciones a una corriente de bitios (S107) . ¡
i
Cuando la dirección de predicción en el modo de i
estimación de vector de movimiento es la predicción
i
unidireccional (no, en S102) , ¡la unidad de control interpredicción 114 determina si la dirección de predicción
I
en el modo de estimación de vector die movimiento es o no la i
segunda dirección de predicción (S108) .
Cuando la dirección de predicción es la segunda
í
dirección de predicción (si, en S108) , la unidad de control interpredicción 114 calcula un vector de movimiento predicho candidato en la segunda dirección de predicción (S109) .
I
Después, la unidad de determinación de adición 116 determina si el vector de movimiento predicho candidato en la primera dirección de predicción se suma o njo a la lista del vector de movimiento predicho candidato para! la segunda dirección de predicción (S110) . Cuando la unijdad de determinación de adición 116 determina que el vector de movimiento predicho candidato en la primera dirección de predicción se suma (si,
i
en S110) , la unidad de control interpredicción 114 suma el vector de movimiento predicho c'andidato en la primera dirección de predicción a la lista del vector de movimiento predicho candidato para la segunda dirección de predicción i
(Slll) . ¡
Después, la unidad de control interpredicción 114 selecciona el vector de movimientoj predicho en la segunda
I
dirección de predicción a partir de la lista de vector de movimiento predicho candidato para dirección de predicción. Después, la unidad de de longitud i
variable 104 codifica una clasijficación de vector de movimiento predicho que corresponde ¡ al vector de movimiento predicho seleccionado y suma la clasificación codificada a una corriente de bitios (S112) . j
I
Cuando la dirección de predicción no es la segunda dirección de predicción (no, en , la unidad de control
íi
interpredicción 114 calcula un vector de movimiento predicho
í
candidato en la primera dirección de predicción (S113) .
i
Después, la unidad de control interpredicción 114 selecciona el vector de movimiento predicho en la primera dirección de predicción a partir de la lista i de vector de movimiento
i
predicho candidato para la primera; dirección de predicción. Después, la unidad de codificación! de longitud variable 104 codifica una clasificación de vector de movimiento predicho
i
que corresponde al vector de movimiento predicho seleccionado
i
y suma la clasificación codificada ¡a una corriente de bitios
I
(S114) . 1
I
Finalmente, la unidad de i codificación de longitud í
variable 104 codifica una clasificación de imagen de i
referencia y un indicador de dirección interpredicción indicando una dirección de predicción del modo de estimación
i
de vector de movimiento y suma el indicador de dirección
i
interpredicción y la clasificación ele imagen de referencia a una corriente de bitios (S115) . j
i
A continuación se describirá con detalle un método para determinar una dirección de predicción en el modo de
i
estimación de vector de movimiento (S101) en la figura 2 con i
referencia a un procedimiento de procesos en la figura 3.
i
La unidad de control interpredicción 114 realiza estimación
i
de movimiento sobre la imagen de referencia identificada por la clasificación de imagen de referencia en la primera
I
j
dirección dé predicción y laj imagen de referencia ?
identificada por el clasificación de imagen de referencia en la segunda dirección de predicción. Después, la unidad de control interpredicción 114 genera el primero y segundo vectores de movimiento que corresponden a las dos imágenes de referencia (S201) . j
i
Aquí, la unidad de control interpredicción 114 calcula valores de diferencia entre ' el bloque actual que va a
I
ser codificado en una imagen quej va a ser codificada y bloques en cada una de las imágenes de referencia en la estimación de movimiento. Después', la unidad de control interpredicción 114 determina el ¿loque que tiene el valor j
de diferencia más pequeño como un bloque de referencia, entre los bloques en la imagen de referencia. Después, la unidad de control interpredicción 114 calcula un vector de movimiento
i
con referencia a una posición del bloque actual y una
1
posición del bloque de referencia. 1
¡
Después, la unidad interpredicción 111 genera una imagen predicha en la primera dirección de predicción utilizando el primer vector de¡ movimiento calculado. La unidad de control interpredicción 114 calcula Costl
(Costo 1) que es un costo cuando el bloque actual es codificado utilizando la imagen predicha, por ejemplo, por un modelo de optimización R-D representado por la siguiente ecuación 4 (S202) .
i
!
j
Costo = D + ? x R ¡(Ecuación 4)
I
En la ecuación 4, D indica artefactos de codificación. De manera más específica D es, por ejemplo, una suma de diferencias absolutas entire (i) valores de pixel obtenidos por codificación y decodificación del bloque actual utilizando la imagen predicha gen rada a partir de cierto vector de movimiento, y (ii) valores de pixel originales del bloque actual. Además, R indica | una cantidad de código i
generada. De manera más específica R es, por ejemplo, una
!
cantidad de código necesaria para' codificar un vector de movimiento utilizado para generar una imagen predicha.
I
Adicionalmente, ? indica un método de Lagrange de multiplicador no determinado. i
Después, la unidad interp'.redicción 111 genera una
i
imagen predicha en la segunda (dirección de predicción
¡
utilizando el segundo vector dé movimiento calculado.
i
Después, la unidad de control .interpredicción 114 calcula Cost2 (Costo 2) de la ecuación 4 (S203) .
Después, la unidad interpredicción 111 genera una
I
imagen predicha bidireccional utilizando el primero y segundo vectores de movimiento calculad Ios. Aquí, la unidad interpredicción 111 genera la imagen predicha bidireccional al promediar, por pixel, la imagen predicha obtenida a partir
í
del primer vector de movimiento y la ¡imagen predicha obtenida
j
a partir del segundo vector de movimiento. Después, la unidad
! I
I
de control interprédicción 114 calcula CostBi (costo Bi) de la ecuación 4 (S204) . ¡
Después, la unidad de control interprédicción 114 compara Costl (costo 1) , Cost2 (costo 2) y CostBi (costo Bi) (S205) . Cuando CostBi (costo Bi) és el más pequeño (si, en
S205) , la unidad de control interprédicción 114 determina la predicción bidireccional como la de predicción del
modo de estimación de vector de movimiento (S206) . Cuando
CostBi (costo Bi) no es el más pequeño (no, en S205) , la
i
unidad de control interprédicción 114 compara Costl (costo
1) y Cost2 (costo 2) (S207) . j
I
Cuando Costl (costo 1) es menor (si, en S207), la i
unidad de control interprédicción 114 determina la predicción unidireccional en laj primera dirección de predicción como el modo de estimación de vector de movimiento
i
(5208) . Cuando Costl (costo 1) no es menor (no, en S207), la
I
unidad de control interprédicción 114 determina la predicción unidireccional en la j segunda dirección de i
predicción como el modo de estimación de vector de movimiento
(5209) . !
I
Aunque la unidad interprédicción 111 promedia
¡
imágenes para cada uno de los pixe^les cuando se genera la
I
imagen predicha bidireccional en ,1a modalidad 1, puede i
calcular un promedio ponderado de imágenes y otros .
i
A continuación se describirá con detalle un método !
Í
de calculo de una lista de vector de movimiento predicha candidata en la figura 2 (S103,j S104, S109 y S113) con referencia a un procedimiento de 'procesos en la figura 4.
La unidad de control interpredicción 114 determina un bloque A adyacente a la izquierda del bloque actual, un bloque B
i
adyacente por encima y un bloque C adyacente en la parte l bloque actual
(S301) .
i
Por ejemplo, la unidad de control interpredicción
i
114 determina, como el bloque A adyacente, un bloque al cual
I
pertenece un pixel adyacente a j la izquierda del pixel localizado en la esquina izquierda superior del bloque
I
actual. Además, la unidad de control interpredicción 114
I
determina, como el bloque B adyacente, un bloque al cual
j
pertenece un pixel adyacente por encima del pixel localizado en la esquina izquierda superior del bloque actual. Además,
I
la unidad de control interpredicción 114 determina, como el bloque C adyacente, un bloque al Icual pertenece un pixel
i
adyacente a la derecha superior o a la esquina derecha
i
superior del bloque actual. j
I
Después, la unidad de control interpredicción 114
i
determina si cada uno de los bloques adyacentes A, B y C
i
satisface o no ambas de las dos con Idiciones (S302) . Una de
I
las condiciones es que el bloque N adyacente (N es uno de A,
I
B y C) tiene un vector de movimiento en dirección de
I
i
¡
i
predicción idéntica a la del vector de movimiento del bloque actual. La otra es que la imagen de referencia del bloque N
i
adyacente es idéntica a la del bloque actual.
Cuando el bloque N adyacente satisface las dos condiciones (si, en S302) , ¡la unidad de control interpredicción 114 suma vectores, de movimiento adyacentes del bloque N adyacente a una lista de vector de movimiento i
predicho candidata (S303) . Además, la unidad de control
i
interpredicción 114 calcula un ¡valor de mediana (valor i
central) de los vectores de movimiento del bloque adyacente y suma el valor de mediana a la lista de vector de movimiento
i
predicha candidata (S304) . ¡
La unidad de control interpredicción 114 suma el vector de movimiento del bloque adyacente que tiene la
i
dirección de predicción idéntica! a la del vector de
j
movimiento correspondiente del bloque actual a la lista de
I
vector de movimiento predicho candidato. Después, la unidad i
de control interpredicción 114 ¡ no suma un vector de
i
movimiento del bloque adyacente que tenga una dirección de predicción diferente de la del vector de movimiento del bloque actual. No obstante, la unidad de control interpredicción 114 puede sumar un i¡vector de movimiento del bloque adyacente que tenga una de predicción
diferente a la del vector de movimiento de bloque actual, a la lista del vector de movimientó predicho candidato al
establecer el vector de movimiento que se va a agregar como 0. j
A continuación se desjcribirá un método para determinar un indicador de adición en la figura 2 (S105, S110) . !
Existe el caso en dondej la imagen de referencia indicada por la clasificación de ¡referencia de la primera dirección de predicción del bloque adyacente es idéntica a la
I
imagen de referencia indicada p^or la clasificación de referencia de la segunda direcciónj de predicción del bloque actual. Generalmente, el vector de ¡ movimiento en la primera dirección de predicción del blcjque adyacente tiende a presentar un valor relativamente cercano al valor del vector de movimiento en la segunda de predicción del
bloque actual. j
I
Así, en tal caso, la unidad de control
I
interpredicción 114 suma el vector de movimiento en la
I
primera dirección de predicción del' bloque adyacente como un
I
vector de movimiento predicho candidato en la segunda dirección de predicción del bloque ajctual . En otras palabras, la unidad de control interpredicción 114 suma el vector de movimiento predicho candidato en primera dirección de
predicción de bloque actual como 'el vector de movimiento i
predicho candidato en la segunda dirección de predicción.
De esta manera, el aparato de codificación de imagen 100 suma no solo el vector de movimiento en la segunda dirección de predicción del bloque! adyacente sino también el
i
vector de movimiento en la primera dirección de predicción, como los vectores de movimiento p'redichos candidatos en la segunda dirección de predicción j del bloque actual para realizar una codificación eficiente1.
i
En la modalidad 1, , no limitada a esta configuración, la unidad de control1 interpredicción 114 suma
i
el vector de movimiento predicho | candidato en la primera
i
dirección de predicción del bloque : actual como el vector de
i
movimiento predicho candidato en j la segunda dirección de predicción. !
i
Por ejemplo, existe un caso en donde la imagen de referencia en la segunda dirección i de predicción del bloque adyacente es idéntica a la imagen dé referencia en la primera dirección de predicción del bloque actual. De esta manera, en
i
tal caso, la unidad de control interpredicción 114 puede sumar el vector de movimiento en ¡ la segunda dirección de predicción del bloque adyacente como un vector de movimiento
I
I
predicho candidato en la primera dirección de predicción del bloque actual. ¡
En otras palabras la unidad de control interpredicción 114 puede sumar ¡el vector de movimiento
i
predicho candidato en la segunda dirección de predicción del bloque actual como el vector de movimiento predicho candidato i
en la primera dirección de predicción. En esta configuración, el aparato de codificación de 100 puede codificar
eficientemente los vectores de movimiento.
i
Además, la unidad de ¡codificación de longitud i
variable 104 puede codificar el indicador de adición y sumar i
el indicador a una corriente de bitios. En consecuencia, un
i
decodificador puede determinar si | el vector de movimiento i
predicho candidato en la primera dirección de predicción debe sumarse o no con la referencia al] indicador de adición. De
I
esta manera se puede reducir la cantidad de cómputo en la
i
decodificación. j
Además, la unidad de codificación de longitud variable 104 puede sumar un indicador de adición por bloque.
En consecuencia, es posible realizar; la conmutación flexible.
i
Además, la unidad de codificación 'de longitud variable 104
i
puede sumar un indicador de ¡ adición por imagen.
I
En consecuencia, es posible mejorar la eficiencia de codificación y reducir la cantidad de cómputo del decodificador . i
í
A continuación se describirá con detalle un método
j
de determinación de un indicador de a Idición, con referencia a la figura 5. í¡
La unidad de determinacióni de adición 116 obtiene una clasificación de imagen de rejferencia de la segunda dirección de predicción del bloque actual (S401) . Además, la
¦ I
unidad 114 de control de control interpredicción obtiene clasificación de imagen de referencia de la primera dirección de predicción de los bloques adyacentes A, B y C (S402) .
Después, la unidad de determinación de adición 116 determina si la imagen de referencia indicada por la clasificación de imagen de referencjia de la segunda dirección de predicción de bloque actual es ¡idéntica o no a la imagen de referencia indicada por la clasificación de imagen de referencia de la primera direcciónl de predicción del bloque
i
adyacente (S403) . Aquí, la unidad dé determinación de adición
116 realiza la determinación utilizando la primera y segunda listas de imagen de referencia. |
Por ejemplo, la unidad de¡ determinación de adición 116 obtiene, a partir de la segunda lista de imagen de referencia, el orden de presentación de la imagen de
j
referencia indicada por la clasificación de imagen de referencia de la segunda dirección ¡de predicción del bloque
I
actual. Además, la unidad de determinación de adición 116 obtiene, a partir de la primera lista de imagen de referencia, el orden de presentáción de la imagen de
¡
referencia indicada por la clasificación de imagen de referencia de la primera dirección ¡de predicción del bloque adyacente. La unidad de determinación de adición 116 compara
i
estos dos ordenes de presentación. ¡Cuando se determina que
I
los ordenes son idénticos entre sí, la unidad de
i
í
!
I
determinación de adición 116 determina que las dos imágenes de referencia son idénticas. !
Cuando la imagen de referencia en una segunda dirección de predicción del bloque actual es idéntica a la imagen de referencia en la primera dirección de predicción del bloque adyacente (si, en! S403), la unidad de
í
determinación de adición 116 cambia a ENCENDIDO el indicador
I
I
de adición (S404) . Cuando la imagen de referencia en la segunda dirección de predicción clel bloque actual no es
i
idéntica a la imagen de referencia en la primera dirección de
i
predicción del bloque adyacente (no, en S403) , la unidad de
j
determinación de adición 116 cambia ! a APAGADO el indicador de
I
adición (S405) . i
En la modalidad 1, la unidad de determinación de adición 116 determina si las dos imágenes de referencia son
i
idénticas entre sí o no con referencia a los ordenes de
i
presentación. No obstante, la uni¡dad de determinación de adición 116 puede determinar sij las dos imágenes de
i
referencia son idénticas entre si o1 no con referencia a los i
i
ordenes de codificación y otros. I Además, la unidad de
i
determinació de adición 116 puede realizar el procesamiento
j
en la figura 5 únicamente cuando un resultado de la determinación en la figura 4 es falso (no, en S302) .
Cuando un resultado de ¡la determinación en la figura 4 es verdadero (si, en la unidad de control
interpredicción 114 suma el vector de movimiento en la segunda dirección de predicción bloque adyacente como un
vector de movimiento predicho ¡candidato en la segunda dirección de predicción del bloque actual. Aquí, la suma i
nuevamente del vector de movimiento en la primera dirección de predicción del bloque adyacente como un vector de movimiento predicho candidato en 1 la segunda dirección de predicción del bloque actual es redundante.
De esta manera, la unidad de determinación de
¡
i
adición 116 puede realizar los procesos en la figura 5 únicamente cuando un resultado de la determinación en la figura 4 es falso (no, en S302) . En consecuencia, únicamente cuando el vector de movimiento enj la segunda dirección de predicción del bloque adyacente no es el vector de movimiento predicho candidato en la segunda dirección de predicción del i
bloque actual, la unidad de control interpredicción 114 i
puede sumar el vector de movimiento en la primera dirección i
I
de predicción del bloque adyacente como un vector de movimiento predicho candidato en ¡la segunda dirección de predicción del bloque actual. En jconsecuencia, es posible mejorar la eficiencia de codificación.
A continuación se describirá un ejemplo de una i
lista de vector de movimiento predicha candidata generada con los procesos (S103 a S106) en la f'igura 2 cuando el bloque actual tiene el vector de movimiento MvLO en la primera dirección de predicción y el vector de movimiento MvLl en la segunda dirección de predicción, cqmo se ilustra en la figura j
34, con referencia a la figura 6A y¡ a la figura 6B .
La siguiente relación se ! supondrá en la figura 34.
j
En otras palabras, la imagen de jreferencia en la primera dirección de predicción del bloque actual es idéntica a la imagen de referencia en la primera dirección de predicción de cada uno de los bloques adyacentes A, B y C. Además, la imagen de referencia en la segunda dirección de predicción í
del bloque actual, la imagen de referencia en la segunda dirección de predicción de cada uno ! de los bloques adyacentes
A y C y la imagen de referencia en la primera dirección de predicción del bloque B adyacente son idénticos entre si.
i
En la lista de vector ¡ de movimiento predicho candidato para la primera dirección de predicción de la i
figura 6A, la clasificación de vector de movimiento predicha
j
corresponde a la mediana (MvL0_A,¡ MvL0_B, MvL0_C) es 0.
La clasificación de vector que corresponde al vector de 1.
La clasificación de vector dé movimiento predicho i
correspondiente al vector de movimiento MvL0_B es 2.
La clasificación de vector dej · movimiento predicho correspondiente al vector de movimiento MvL0_C es 3.
En la lista de vector | de movimiento predicho candidato para la segunda direcció In de predicción de la
I
I
figura 6B, la clasificación de vector de movimiento predicho correspondiente a la mediana (MvLo'_A, MvL0_B, vL0_C) es 0.
La clasificación de vector de j movimiento predicho que corresponde al vector de movimiento MvLl A es 1.
i —
La clasificación de vector de movimiento predicho
I
correspondiente al vector de movimiento MvL0_B es 2.
La clasificación de vector d'e movimiento predicho correspondiente al vector de movimiento MvLl_C es 3.
Aquí, cuando la lista del vector de movimiento predicho candidato para la segunda dirección de predicción no tiene un vector de movimiento MvLljB en la segunda dirección de predicción del bloque B adyacenite, la unidad de control interpredicción 114 suma el vector de movimiento MvLO B en
I
la primera dirección de predicción | a la lista de vector de movimiento predicho candidato para j la segunda dirección de predicción. De esta manera, cuandd un bloque adyacente no tiene un vector de movimiento en ¡la segunda dirección de predicción pero en vez de esto tiene un vector de movimiento en la primera dirección de predicción, la unidad 14 de control interpredicción suma el vector de movimiento en la primera dirección de predicción del bloque adyacente a la lista de vector de movimiento preiicho candidato para la segunda dirección de predicción. j
En consecuencia, es posiblíe mejorar la eficiencia i
de codificación. Cuando la lista de vector de movimiento predicho candidato para la segunda ¡dirección de predicción no tiene un vector de movimiento del ¿loque adyacente, la unidad 114 interpredicción no asigna una clasificación de vector de movimiento predicha alguna. En jconsecuencia, es posible mejorar la eficiencia de codificación. Además, el método de
I
asignar la clasificación de vector j de . movimiento predicho no
i
se limita a este ejemplo. Cuando río está presente vector de movimiento, la unidad 114 de control de predicción puede i
asignar la clasificación de vector ¡de movimiento predicho al
i
sumar un vector de movimiento que tiene la magnitud de 0 a la lista de vector de movimiento predicho candidato.
La figura 7 ilustra un ¡ejemplo de una tabla de código para clasificaciones de vector de movimiento predicho de codificación de longitud ¡variable. Conforme la clasificación de vector de movimiento predicho es menor, el
?
código es. más corto. La unidad de control interpredicción 114
i
asigna una clasificación de vector de movimiento predicho más
I
pequeño a un candidato estimado j con una precisión de predicción mayor. En consecuencia,! es posible mejorar la eficiencia de codificación. !
I
En el ejemplo de la listaj de vector de movimiento predicho candidato para la segunda dirección de predicción en í
la figura 6B, la unidad de control interpredicción 114 asigna la clasificación de vector ¡ de movimiento predicho indicado por 2, al vector de movimiento MvLO B en la primera dirección de predicción del bloque| B adyacente. No obstante,
I
la unidad de control interprediccijón 114 puede asignar una clasificación de vector de movimiento predicho menor a un candidato en la misma dirección de predicción.
De manera más específic'a, la unidad de control interpredicción 114 asigna 0 a una clasificación de vector de movimiento predicho que corresponde a la mediana (MvLl_A, MvL0_B, MvLl_C) en la lista de vectj.or de movimiento predicho candidato para la segunda dirección! de predicción.
i
Además, la unidad de control interpredicción 114
í
asigna 1 a una clasificación de vector de movimiento predicho que corresponde al vector de movimiento MvLl_A. Además, la
I
unidad de control interpredicciónj 114 asigna 2 a una clasificación de vector de movimiento predicho que corresponde al vector de movimiento |MVL1_C. Además, la unidad
i
de control interpredicción 114 asigna 3 a una clasificación
i
de vector de movimiento predicho quej corresponde al vector de movimiento MvL0_B. j
En consecuencia, la misma! dirección de predicción
!
es priorizada, y las clasificaciones de vector de movimiento predicho más pequeñas se asignan a los vectores de movimiento predichos candidatos calculados para tener una mayor
I
precisión de predicción. ¡
I
A continuación se describirá con detalle un método de selección de un vector de movimiento predicho (S107, S112 y S114) de la figura 2 con referencia a un procedimiento de procesos en la figura 8. La unidad ¡de control interpredicción 114 establece 0 en un valor de cohtador para inicialización y establece el valor más grande ¡ al vector de movimiento diferencial más pequeño (S501) . 1
Después, la unidad de control interpredicción 114 determina si los vectores de movimiento diferencial de la totalidad de los vectores de movimiento predicho candidato se calculan o no (S502) . Cuado aún existe un vector de
i
movimiento predicho candidato (si; en S502) la unidad de control interpredicción 114 calcula el vector de movimiento diferencial al restar el vector ¡ de movimiento predicho candidato de un vector resultado de1 estimación de movimiento (S503). '
Después, la unidad de control interpredicción 114 i
determina si el vector de movimiento diferencial calculado es menor o no que el vector de movimiento diferencial más i
pequeño (S504) . Cuando el vector de movimiento diferencial es menor que el vector de movimiento diferencial más pequeño (si, en S504), la unidad de control interpredicción 114 i
actualiza el vector de movimiento diferencial más pequeño y la clasificación de vector de movimiento predicho (S505) .
i
Después, la unidad de control interpredicción 114 suma 1 al valor de contador (S506)1. Después, la unidad de
I
control interpredicción 114 determina nuevamente si existe o no el siguiente vector de movimiento predicho candidato (S502) . Cuando la unidad de control interpredicción 114 determina que los vectores de movimiento diferencial para todos los vectores de movimiento predichos candidatos se han calculado (no, en S502) , transmite el vector de movimiento diferencial más pequeño y la clasificación de vector de movimiento predicho que son determinados finalmente a la unidad de codificación de longitud variable 104 y provoca que la unidad de codificación de longitud variable 104 codifique el vector de movimiento diferencial más pequeño y la clasificación de vector de movimiento predicho (S507) .
De acuerdo con la modalidad 1, cuando se selecciona un vector de movimiento de un bloque adyacente como un vector de movimiento candidato, la unidad de control interpredicción 114 adopta un criterio de selección nuevo para la selección.
í
En consecuencia, la unidad de conjtrol interpredicción 114 deriva el vector de movimiento predicho más adecuado para codificar un vector de movimiento ;de la imagen actual . En consecuencia, es posible mejorar la eficiencia de codificación. j
En particular, existe un caso en donde la imagen de referencia indicada por la clasificación de referencia de
i
imagen de referencia de la segunda ¡ dirección de predicción del bloque actual es idéntica a la imagen de referencia indicada por la clasificación de referencia de imagen de I
referencia de la primera dirección de predicción del bloque adyacente. En tal caso, la unidad Jde control interpredicción 114 suma el vector de movimiento jen la primera dirección de predicción del bloque adyacente como el vector de movimiento predicho candidato en la segunda dirección de predicción del bloque actual. De esta manera es I posible una codificación
!
eficiente. ¡
En la modalidad 1, ¡la unidad de control i
interpredicción 114 suma el vector de movimiento de la í
primera dirección de predicción del bloque adyacente a la lista de vector de movimiento predicho candidato para la segunda dirección de predicción j del bloque actual. No i
obstante, la unidad de control interpredicción 114 puede
I
sumar el vector de movimiento en ¡ la segunda dirección de predicción del bloque adyacente a¡ la lista de vector de i
movimiento predicho candidato para'; la primera dirección de
¡
predicción del bloque actual. \
i
MODALIDAD 2¡
La figura 9 es un diagrama de bloques que ilustra i I
una configuración de un aparato de idecodificación de imagen de acuerdo con la modalidad 2. '
Como se ilustra en la fjigura 9, un aparato de
I
decodificación de imagen 200 incluye una unidad de decodificación de longitud variable 204, una unidad de cuantificación inversa 205, una unidad de transformación ortogonal inversa 206 , una unidad de adición 207 , una
i
memoria de bloque 208, una memoria de marco 209, una unidad
I
intrapredicción 210 , una unidad ¡interpredicción 211 , una
i
unidad de conmutación 212, u Ina unidad de control
i
interpredicción 214, una unidad de | manejo de lista de imagen de referencia 215 y una unidad determinación de adición 216.
La unidad de decodificación de longitud variable i
204 decodifica con longitud variable una corriente de bitios
I
de entrada. Después, la unidad de decodificación de longitud variable 204 genera un tipo de imagen, una clasificación de
¡
imagen de referencia, una información de dirección
I
interpredicción, una clasificación | de vector de movimiento
I
I
predicho y coeficientes cuantificados . La unidad de cuantificación inversa 205 cuantifi!ca de manera inversa los
i
coeficientes cuantificados . La unidad 206 de transformación
I
ortogonal inversa realiza la transformación sobre los
I
coeficientes de transformación ortogonales cuantificados de
I
manera inversa a partir del dominio I de frecuencia al dominio
i I
I
de imagen para generar datos de imagen de error de predicción. j
La memoria de bloque es una memoria para
almacenar una secuencia de imagen generada al sumar los datos
i
de imagen predichos con los datos] de imagen de error de predicción, por bloque. La memoria de marco 209 es una
i
memoria para almacenar la secuencia' de imagen por marco.
i
La unidad intrapredicción 210 genera los datos de
I
imagen predichos de. un bloque qud va a ser decodificado a través de intrapredicción utilizando la secuencia de imagen i
almacenada por bloque en la memoria) de bloque 208.
i
La unidad interpredicción 211 genera los datos de imagen predichos del bloque que se jva a decodificar a través de la interpredicción utilizando j la secuencia de imagen almacenada por marco en la memoria de marco 209. La unidad de i
control interpredicción 214 controla un método de generación de un vector de movimiento y datos jde imagen predichos en la interpredicción, de acuerdo con ¡el tipo de imagen, la
I
clasificación de imagen de referencia, la información de t
i
dirección de interpredicción y la clasificación del vector de movimiento predicho. |
I
La unidad de manejo de lista de imagen de referencia 215 genera una lista de con los ordenes de presentación de las clasificaciones de imagen de referencia para asignar las clasi icaciones de imagen de referencia a imágenes de referencia! decodificadas a las que
I
se puede hacer referencia en la interpredicción (similar a la
I
figura 33) . La imagen B se utiljiza para codificar con referencia a dos imágenes. De esta manera, la unidad de manejo de lista de imagen de referencia 215 mantiene dos listas de referencia.
La unidad de manejo ¡de lista de imagen de
i
referencia 215 maneja las imágenes de referencia por las clasificaciones de imagen de referencia y los ordenes de presentación en la modalidad 2. No obstante, la unidad de manejo de lista de imagen de referencia 215 puede manejar las imágenes de referencia por las clasificaciones de imagen de referencia y los ordenes de codificación (ordenes de decodificación) . ¡
i
La unidad de determinacióni de adición 216 determina
i
si un vector de movimiento predichb candidato en la primera dirección de predicción se agrega o no a una lista de vector de movimiento predicho candidato paira la segunda dirección de
i
predicción del bloque que se va a decodificar con referencia a la primera y segunda lista de imagen de referencia generadas por la unidad de manejó de lista de imagen de referencia 215. Después de determinación de adición 216 establece un adición. Puesto que el procedimiento para determinar el indicador de adición es el i
mismo que en la figura 5 de acuerdo con la modalidad 1, se
i
omite la descripción del mismo. |
Finalmente, la unidad dej adición 207 suma los datos de imagen de error de predicción decodificados a los datos de imagen predichos para generar una secuencia de imagen decodificada . ]
I
La figura 10 son las! generalidades de un procedimiento de procesos de un método de decodificación de
i
imagen de acuerdo con la modalidad 2. En primer lugar, la unidad de control interprediccion 214 determina si una dirección de predicción decodificada es una bidirección
Cuando la dirección de predicción decodificada es la bidirección (si, en S601) , j la unidad de control interpredicción 214 calcula las listas de vector de movimiento predicho candidato para la primera y segunda
i
direcciones de predicción (S602, j S603) . La figura 4 de acuerdo con la modalidad 1 se utiliza para calcular las
i
listas de vector de movimiento predicho candidato. La unidad de control interpredicción 214 decodifica las clasificaciones de imagen de referencia de la prim'era y segunda direcciones
i
de predicción a partir de una corriente de bitios . La unidad de determinación de adición 216 determina si un vector de movimiento predicho candidato en 'la primera dirección de
i
predicción se suma o no a la lista' de vector de movimiento predicho candidato para la segunda; dirección de predicción
I
(S604) . i
j
Cuando el indicador de adición está ENCENDIDO (si, en S604), la unidad 214 de contro'l de predicción suma el
I
vector de movimiento de predicción ¡ candidato en la primera dirección de predicción a la lista de vector de movimiento predicho candidato para la segunda dirección de predicción
(S605) . El indicador de adición que indica si el vector de movimiento predicho candidato en i la primera dirección de predicción se suma o no, se establece de la misma manera que en la figura 5 de acuerdo con la modalidad 1.
j
La unidad de control intérpredicción 214 selecciona
j
los vectores de movimiento predichos indicados por las
i
clasificaciones de vector de mojvimiento predicho de la i
primeras y segunda direcciones ] de predicción que son decodificadas a partir de la corriente de bitios, a partir de
!
las listas de vector de movimiento predicho candidato para la primera y segunda direcciones de ¡predicción. La unidad de control intérpredicción 214 suma' vectores de movimiento
I
diferenciales en la primera y ! segunda direcciones de predicción que son decodificados a partir de la corriente de
I I
bitios, a los vectores de movimiento predichos en la primera i
y segunda direcciones de predicción.!
En consecuencia, la ! unidad de control i
intérpredicción 214 decodifica los vectores de movimiento en i
la primera y segunda direcciones de predicción (S606) .
i
Cuando la dirección de predicción decodificada no
I
es la bidirección (no, en S601) I es decir, cuando la
i
dirección intérpredicción es una dirección, la unidad de i '
control intérpredicción 214 determina si la dirección de predicción es o no la segunda dirección de predicción (S607) .
Cuando la dirección de predicción es la segunda
dirección de predicción (si, en S607) , la unidad de control
¡
interpredicción 214 calcula un vector de movimiento predicho candidato en la segunda dirección! de predicción (S608) . La
j
unidad de determinación de adición ¡216 determina si un vector de movimiento predicho candidato en la primera dirección de
i
predicción se suma o no a la lista de vector de movimiento predicho candidato para la segunda dirección de predicción
(5609) . I
i
Cuando el indicador de adición se ENCIENDE (si, en
i
S609) , la unidad de control interpredicción 214 suma el vector de movimiento predicho candidato en la primera dirección de predicción a la listá de vector de movimiento i
predicho candidato para la segunda dirección de predicción
(5610) . I
i
La unidad de control interpredicción 214 selecciona el vector de movimiento predicho indicado por la clasificación dé vector de movimiento predicho de la segunda dirección de predicción que es decpdificada a partir de la
I
corriente de bitios, a partir de] la lista de vector de movimiento predicho candidato para J la segunda dirección de predicción. La unidad de control interpredicción 214 suma el
i
vector de movimiento predicho seleccionado al vector de movimiento diferencial en la segunda1 dirección de predicción
i
que es decodificada a partir de la corriente de bitios, y de esta manera decodifica el vector de movimiento en la segunda dirección de predicción (S611) . i
Cuando la dirección de predicción no es la segunda dirección de predicción (no, en s607) , es decir, cuando la dirección de predicción es lá primera dirección de
I
predicción, la unidad de control interpredicción 214 calcula un vector de movimiento predicho ¡ candidato en la primera i
dirección de predicción (S612) . ¡
La unidad de control interpredicción 214 selecciona el vector de movimiento predicho indicado por la clasificación de vector de movimiento predicho de la primera dirección de predicción que es decodificada a partir de la corriente de bitios, a partir de! la lista de vector de
i
movimiento predicho candidato para! la primera dirección de i
predicción. Después, la unidad de control interpredicción 214 suma el vector de movimiento predicho seleccionado al vector de movimiento diferencial en la primera dirección de predicción que es decodificada a partir de la corriente de
!
I
bitios y de esta manera decodifica él vector de movimiento en i
la primera dirección de predicción (S613) .
De acuerdo con la modalidad 2, cuando se selecciona un vector de movimiento de un bloque! adyacente como un vector de movimiento candidato, la unidad dé control interpredicción 214 adopta un nuevo criterio de selección para la selección. En consecuencia, se deriva un vector I de movimiento predicho
I
que es el más adecuado para decodificar un vector de ¡
movimiento. Además, la eficiencia de codificación se me orará . '
En particular, existe el jcaso en donde la imagen de referencia indicada por la clasificación de referencia de imagen de referencia de la segunda dirección de predicción
I
del bloque actual que se va a decbdificar es idéntica a la imagen de referencia indicada por la clasificación de referencia de imagen de referencia de la primera dirección de predicción del bloque adyacente. En tal caso, la unidad de control interpredicción 214 suma el vector de movimiento en la primera dirección de predicción jdel bloque adyacente como un vector de movimiento predicho ! candidato en la segunda dirección de predicción del bloque actual que se va a
i
decodificar. En consecuencia, se mejorará la eficiencia de
i
codificación. '
La unidad 214 de control de interpredicción, de
I
acuerdo con la modalidad 2, suma el vector de movimiento en
I
la primera dirección de predicción del bloque adyacente a la lista de vector de movimiento prédicho candidato para la segunda dirección de predicción i del bloque actual. No obstante, la unidad de control interpredicción 214 puede sumar el vector de movimiento en |la segunda dirección de
I
predicción del bloque adyacente a [ la lista de vector de movimiento predicho candidato para Jla primera dirección de predicción del bloque actual. j
¡
¡
MODALIDAD ¡ 3
La modalidad 3 describe Ide manera suplementaria un aparato de codificación de imagen jque incluye los elementos
I
constitutivos característicos del aparato de codificación de
I
imagen 100 de acuerdo con la modalidad 1.
La figura 11A ilustra unaj configuración del aparato
I
de codificación de imagen de acuerclo con la modalidad 3. Un aparato de codificación de imagen 300 en la figura 11A incluye una unidad de adición 301,'j una unidad de selección 302 y una unidad de codificación 303. La unidad de adición
301 corresponde principalmente a la unidad de determinación de adición 116 de acuerdo con la modalidad 1. La unidad de selección 302 corresponde principalmente a la unidad de control interpredicción 114 de acuerdo con la modalidad 1.
I
La unidad de codificación 303 corresponde principalmente a la unidad de codificación de longitud ¡ variable 104 de acuerdo con la modalidad 1. I
Después, el aparato de co!dificación de imagen 300 codifica la imagen actual por bloque. Aquí, el aparato de
I
codificación de imagen 300 realiza ¡la predicción utilizando una o ambas de la primera y segunda listas de imagen de referencia. En otras palabras, el aparato de codificación de imagen 300 realiza la predicción utilizando una o ambas de las imágenes de referencia indicadasj or la primera lista de imagen de referencia y la imagen de I referencia indicada por la segunda lista de imagen de referencia.
j
La figura 11B es un! diagrama de flujo de operaciones realizadas por el aparato de codificación de imagen 300 en la figura 11A. En primer lugar, la unidad de adición 301 suma el primer vector ¡de movimiento adyacente a una lista de vector de movimiento predicho candidato para ser
i
utilizada para codificación del vector de movimiento actual, como un candidato para un vector de movimiento predicho
(S701) . i
i
El primer vector de movimiento adyacente es un vector de movimiento de un bloque adyacente que está
!
adyacente al bloque actual que se ^a a codificar incluido en la imagen actual que se va a codificar. Además, el primer vector de movimiento adyacente indica una posición en una
i
primera imagen de referencia incluida en la primera lista de imagen de referencia. El vector dej movimiento actual es un vector de movimiento del bloque actual. Además, el vector de
¡
movimiento adyacente actual indica una posición en una segunda imagen de referencia incluida en la segunda lista de
I
imagen de referencia. ¡
Después, la unidad de selección 302 selecciona un vector de movimiento predicho pajra ser utilizado para codificación del vector de movimiento actual, a partir de una
I
lista de candidatos que incluye] el primer vector de movimiento adyacente (S702) . Después, la unidad de
codificación 303 codifica el vector de movimiento actual utilizando el vector de movimiento predicho seleccionado (S703) . !
En consecuencia, el vector de movimiento adyacente que corresponde a la primera lista ¡de imagen de referencia se agrega a la lista de candidatos qué corresponde a la segunda lista de imagen de referencia. En consecuencia se incrementa i
el número de opciones de vectores de movimiento predicho. En consecuencia, es posible derivar un vector de movimiento predicho adecuado para mejorar la de codificación del vector de movimiento actual .
Además, la unidad de adición 301 puede sumar el segundo vector de movimiento adyacente a la lista de candidatos . El segundo vector de movimiento adyacente es un vector de movimiento de un bloque adyacente e indica una posición en una tercera imagen de referencia incluida en la
I
segunda lista de imagen de referenci'a.
En consecuencia, el vector de movimiento adyacente que corresponde a la segunda lista dje imagen de referencia se suma a la lista de candidatos que (corresponde a la segunda lista de imagen de referencia. En consecuencia, se incrementa el número de opciones de vectores de J movimiento predicho.
En consecuencia, es posib'le derivar un vector de movimiento predicho adecuado para mejorar la eficiencia de codificación del vector de movimiento actual.
I
Además, la unidad de adición 301 puede determinar
j
si la segunda imagen de referencia es idéntica o no a la tercera imagen de referencia. Cujando se determina que la segunda imagen de referencia es idéntica a la tercera imagen de referencia, la unidad de adición 301 puede sumar el segundo vector de movimiento adyacente a la lista de candidatos. Además, la unidad de adición 301 puede determinar si la segunda imagen de referencia es idéntica o no a la
i
primera imagen de referencia. Después, cuando se determina
I
que la segunda imagen de referencia es idéntica a la primera imagen de referencia, la unidad de adición 301 puede sumar el i
primer vector de movimiento adyacente a la lista de i
candidatos . ¡
En consecuencia, únicamente cuando la imagen de referencia que corresponde al vectcjr de movimiento actual es idéntica a la imagen de referencia corresponde al vector
de movimiento adyacente, el vector de movimiento adyacente se i
!
suma a la lista de candidatos. De¡ esta manera, únicamente cuando el vector de movimiento adyacente es apropiado como un candidato para un vector de movimiento predicho, el vector de movimiento adyacente se suma a la lista de candidatos.
De esta manera se deriva un vector de movimiento predicho i
apropiado . I
I
Además, la unidad de adición 301 puede determinar si la segunda imagen de referencia' es idéntica o no a la
i
primera imagen de referencia cuándo se determina que la segunda imagen de referencia no jes idéntica a la tercera t
imagen de referencia. Cuando se [determina que la segunda i
imagen de referencia no es idéntica a la tercera imagen de
¡
referencia y que la segunda imagenj de referencia es idéntica
I
a la primera imagen de referencia,; la unidad de adición 301 puede sumar el primer vector de movimiento adyacente a la
i
lista de candidatos. ¡
En consecuencia, cuando ¡ el vector de movimiento i
actual corresponde a la segunda lista de imagen de i
referencia, el vector de movimiento adyacente corresponde a la segunda lista de imagen de referencia se suma de manera preferencial a la lista de candidatos. De esta manera, se i
I
agrega un vector de movimiento adyacente más apropiado a la lista de candidatos como un candidato para un vector de movimiento predicho.
Adicionalmente , la unida!d de adición 301 puede
I
determinar si la segunda imagen de1 referencia es idéntica o no a la tercera imagen de referencia al determinar si el orden de presentación de la segunda imagen de referencia es i
idéntico o no al orden de presentación de la tercera imagen de referencia. Además, la unidad de adición 301 puede determinar si la segunda imagen de ¡ referencia es idéntica o no a la primera imagen de referencia al determinar si el
I
orden de presentación de la segunda imagen de referencia es idéntico o no al orden de presentación de la primera imagen
I
de referencia.
Aquí, la primera imagen de referencia se identifica por la primera lista de imagen de referencia y la primera clasificación de referencia. Además, la segunda imagen de referencia se identifica por una segunda lista de imagen de referencia y la segunda clasificación de referencia.
Adicionalmente, la tercera imagen dé referencia se identifica i
por la segunda lista de imagen de referencia y la tercera
i
clasificación de referencia. ¡
i
I
En consecuencia, si la imagen de referencia i
identificada en la primera lista dé imagen de referencia es i
idéntica o no a la imagen de referencia identificada por la i
segunda lista de imagen de Referencia se determina apropiadamente en base en los ordenes de presentación.
i
Además, cuando se determina que la segunda imagen de referencia no es idéntica a ! la tercera imagen de
i
referencia y que la segunda imagen de referencia no es idéntica a la primera imagen de Referencia, la unidad de
I
adición 301 puede sumar 0 a la lista de candidatos. En otras palabras, la unidad de adición 301 puede sumar un vector de i
movimiento que tenga una magnitud; de 0 a la lista . de
I
candidatos como un candidato para un vector de movimiento predicho. '
i
En consecuencia se suprime la disminución en el i
i
número de candidatos . De esta manera se evita un estado en donde no existan candidatos en la ljista de candidatos.
Además, la unidad de adición 301 puede sumar, a la lista de candidatos, valores de clasificación y candidatos para un vector de movimiento predicho de manera que los valores de clasificación están en luna correspondencia uno a uno con los candidatos para el vector de movimiento predicho.
Además, la unidad de selección 3Ó2 puede seleccionar un valor de clasificación a partir ?? la lista de candidatos como un vector de movimiento predicho. La unidad de
I
codificación 303 puede codificar adicionalmente el valor de clasificación seleccionado de maneija que conforme el código del valor de clasificación sea mayor, el valor de codificación es más grande. j
En consecuencia, el vecto'r de movimiento predicho í
seleccionado es codificado apropiadamente. Así, el
!
codificador y el decodificador seleccionan el mismo vector de movimiento predicho. !
Además, la unidad de adición 301 puede sumar el primer vector de movimiento adyacente de un bloque adyacente i
a la lista de candidatos suponiendo que cada uno de un bloque adyacente a la izquierda, un bloque ¡ adyacente superior y un í
bloque adyacente a la derecha superior con respecto al bloque i
actual que se codifican es un bloque 'adyacente.
En consecuencia, se suma una pluralidad de vectores de movimiento adyacentes a la lista de candidatos como
i
candidatos para el vector de movimiento predicho.
En consecuencia se incrementa el número de opciones de vector de movimiento predicho.
MODALIDAD
La modalidad 4 describe manera suplementaria un
aparato de decodificación de imagen! que incluye los elementos constitutivos característicos del ¡aparato de decodificación i
de imagen 200 de acuerdo con la modalidad 2.
i
La figura 12A ilustra una [ configuración del aparato de decodificación de imagen de acuerdo con la modalidad 4. Un aparato 400 de decodificación de magen en la figura 12A incluye una unidad de adición 40l,| una unidad de selección 402 y una unidad de decodificación 403. La unidad de adición 402 corresponde de manera principal a la unidad de determinación de adición 216 de acuerdo con la modalidad 2.
La unidad de selección 402 corresponde de manera principal a
una o ambas de la primera y segunda listas de imagen de referencia. En otras palabras el aparato 400 de decodificación de imagen realiza laj predicción utilizando una o ambas de las imágenes de referencia indicadas por la primera lista de imagen de ref'erencia y la imagen de referencia indicada por la segunda lista de imagen de referencia. j
La figura 12B es un ¡ diagrama de flujo de i
operaciones realizadas por el aparato 400 de decodificación i
de imagen en la figura 12A. En primer lugar, la unidad 400 de i
adición suma el primer vector de movimiento adyacente a una lista de vector de movimiento pre'dicho candidato para ser i
utilizada para decodificación del vector de movimiento actual, como un candidato para un vector de movimiento predicho (S801) . j
El primer vector de movimiento adyacente es un vector de movimiento de un bloque adyacente que está adyacente al bloque actual que se va a decodificar incluido en la imagen actual que se va a l decodificar. Además, el una posición en la primera lista
de imagen de referencia. El vector de movimiento actual es un i
vector de movimiento del bloque J actual que se va a
I
decodificar. Además, el vector de movimiento actual indica i
una posición en una segunda imagen d¡e referencia incluida en í
j
la segunda lista de imagen de referencia.
Después, la unidad de selección 402 selecciona un vector de movimiento predicho que se va a utilizar para decodificar el vector de movimiento actual, a partir de una
i
lista de candidatos que incluye el primer vector de j
movimiento adyacente CS802) . Después, la unidad de decodificación 403 decodifica el vector de movimiento actual utilizando el vector de movimiento predicho seleccionado
i
(S803) .
En consecuencia, el vectdr de movimiento adyacente que corresponde a la primera lista imagen de referencia se
suma a la lista de candidatos que ¡ corresponde a la segunda lista de imagen de referencia. Ademas, el número de opciones i
de vectores de movimiento predicho se incrementa. Por lo
I
tanto, es posible derivar un vector de movimiento predicho
i
adecuado para mejorar la eficiencia de codificación del
j
vector de movimiento actual. ¡
Además, la unidad de adición 401 puede sumar el segundo vector de movimiento adyacente a la lista de candidatos. El segundo vector de movimiento adyacente es un vector de movimiento de un bloque! adyacente e indica una posición en una tercera imagen de zjeferencia incluida en la
i
segunda lista de imagen de referencia.
i
En consecuencia, el vector de movimiento adyacente que corresponde a la segunda lista imagen de referencia se
?
suma a la lista de candidatos que corresponde a la segunda
I
lista de imagen de referencia. ¡Además, se incrementa el número de opciones de vectores ; de movimiento predicho.
De esta manera, es posible derivar un vector de movimiento
i
predicho adecuado para mejorar la eficiencia de codificación del vector de movimiento actual. ¡
I
Además, la unidad de adición 401 puede determinar si la segunda imagen de referenci'a es idéntica o no a la tercera imagen de referencia. Después, cuando se determina que la segunda imagen de referencia' es idéntica a la tercera imagen de referencia, la unidad de ¿dición 401 puede sumar el segundo vector de movimiento adyacente a la lista de candidatos. Además, la unidad de adición 401 puede determinar si la segunda imagen de referencia es idéntica o no a la primera imagen de referencia. Después, cuando se determina que la segunda imagen de referencia} es idéntica a la primera imagen de referencia, la unidad de ádición 401 puede sumar el primer vector de movimiento adyacente a la lista de
i
candidatos . ¡
En consecuencia, únicamente cuando la imagen de
i
referencia que corresponde al vector de movimiento actual es idéntica a la imagen de referencia que corresponde al vector de movimiento adyacente, el vector de movimiento adyacente se suma a la lista de candidatos. De j esta manera, únicamente cuando el vector de movimiento adyacente es apropiado como un candidato para un vector de movimiento predicho, el vector de movimiento adyacente se suma a j la lista de candidatos . De esta manera se deriva un vectjor de movimiento predicho apropiado . '
Además, la unidad de adición 401 puede determinar si la segunda imagen de referencia es idéntica o no a la i
primera imagen de referencia cuajndo se determina que la segunda imagen de referencia no es idéntica a la tercera imagen de referencia. Cuando se ¡determina que la segunda imagen de referencia no es idéntica a la tercera imagen de referencia y que la segunda imagen referencia es idéntica a la primera imagen de referencia, unidad de adición 401 puede sumar el primer vector de movimiento adyacente a la i
lista de candidatos. j
En consecuencia, cuando ¡el vector de movimiento actual corresponde a la segunda lista de imagen de referencia, el vector de movimiento ¡adyacente que corresponde a la segunda lista de imagen de referencia preferiblemente se suma a la lista de candidatos. De ¡esta manera, se suma un
I
vector de movimiento adyacente más | apropiado a la lista de í
candidatos como un candidato para jun vector de movimiento predicho. ¡
I
Además, la unidad de adición 401 puede determinar si la segunda imagen de referenciaj es idéntica o no a la tercera imagen de referencia al determinar si el orden de presentación de la segunda imagen de referencia es idéntico o
i
no al orden de presentación d|e la tercera imagen de
I
referencia. Además, la unidad de adjición 301 puede determinar si la segunda imagen de referencia es idéntica a la primera imagen de referencia al determinar si el orden de presentación de la segunda imagen de referencia es idéntico o no al orden de presentación de la primera imagen de referencia. j
i
Aquí, la primera imagen de referencia se identifica por la primera lista de imagen dé referencia y la primera clasificación de referencia. Además, la segunda imagen de referencia se identifica por una segunda lista de imagen de referencia y la segunda clasificación de referencia. Además,
i
la tercera imagen de referencia se ¡identifica por la segunda lista de imagen de referencia y laj tercera clasificación de
i
referencia. !
i
En consecuencia, si laj imagen de referencia
I
identificada por la primera lista dé imagen de referencia es idéntica o no a la imagen de referencia identificada por la i
segunda lista de imagen de referencia se determina i
apropiadamente en base en los ordenes de presentación.
i
Además, cuando se determina que la segunda imagen de referencia no es idéntica a j la tercera imagen de referencia y que la segunda imagen de referencia no es idéntica a la primera imagen de referencia, la unidad de
adición 401 puede sumar 0 a la ta de candidatos. En otras
palabras, la unidad de adición 40Í puede sumar un vector de
¡
movimiento que tiene una magnitiud de 0 a la lista de candidatos como un candidato para un vector de movimiento i
predicho. ?
En consecuencia disminuye el número de candidatos i
que se suprimen. De esta manera se evita un estado en donde no exista candidato en la lista de ¡candidatos .
Además, la unidad de adición 401 puede sumar í
valores de clasificación y candidatos para un vector de movimiento predicho a la lista de j candidatos de manera que los valores de clasificación están en una correspondencia uno a uno con los candidatos para ¡el vector de movimiento predicho. La unidad de decodificación 403 puede decodificar el valor de clasificación codificado de manera que el código sea más grande conforme el valor de¡ clasificación sea mayor.
Además, la unidad de selección 4'02 puede seleccionar un vector de movimiento predicho que i corresponda al valor de clasificación decodificado a partir de la lista de candidatos. ¡
En consecuencia, el vector de movimiento predicho
i
seleccionado se decodifica apropiadamente. De esta manera, el i
codificador y el decodificador seleccionan el mismo vector de movimiento predicho. j
Además, la unidad de adición 401 puede sumar el primer vector de movimiento adyacente del bloque adyacente a la lista de candidatos suponiendo ! que cada uno de un bloque adyacente a la izquierda, un bloque adyacente en la parte superior y un bloque adyacente a ¡ la derecha y en la parte
i
superior con respecto al bloque actual que va a ser decodificado es el bloque adyacente.
En consecuencia, se suman una pluralidad de vectores de movimiento adyacentes a la lista de candidatos como candidatos para el vector : de movimiento predicho . De esta manera, se incrementa el número de opciones de vectores de movimiento predicho. '
MODALIDAD 5
La modalidad 5 describe de manera suplementaria un aparato de codificación y decodificación de imagen que incluye los elementos constitutivos característicos del aparato de codificación de imagen 100 de acuerdo con la modalidad 1 y el aparato de decodi icación de imagen 200 de acuerdo con la modalidad 2. i
La figura 13 ilustra una .configuración del aparato de codificación y decodificación de! imagen de acuerdo con la modalidad 5. Un aparato de codificación 500 y decodificación i
de imagen en la figura 13 incluye una unidad de adición 501,
I
una unidad de selección 502, una unidad de codificación 503 y una unidad de decodificación 504 . 1
La unidad de adición 501 corresponde principalmente I
a la unidad de determinación de adición 116 de acuerdo con la modalidad 1 y la unidad de determinación de adición 216 de i
acuerdo con la modalidad 2. La ¡ unidad de selección 402 corresponde principalmente a 'la unidad de control interpredicción 114 de acuerdo con la modalidad 1 y la unidad de control interpredicción 214 de acuerdo con la modalidad 2. La unidad de codificación 503 corresponde principalmente a la unidad de 'codificación de longitud variable 104 de acuerdo con la modalidad 1. La unidad de decodificación 504 corresponde principalmente a la unidad de decodificación de longitud variable 204 y la unidad de control interpredicción 214 de acuerdo con la modalidad 2.
Después, el aparato de codificación 500 y decodificación de imagen codifica la imagen actual por bloque y decodifica la imagen actual por bloque. Aquí, el aparato de codificación 500 y decodificacipn de imagen realiza predicción utilizando una o ambas ¡de la primera y segunda listas de imagen de referencia. En otras palabras, el aparato de codificación 500 y decodificación de imagen realiza
i
predicción utilizando una o ambas de la imagen de referencia indicada por la primera lista de imagen de referencia y la imagen de referencia indicada por la segunda lista de imagen de referencia. ¡
La unidad de adición 501 suma el primer vector de movimiento adyacente a una lista de vector de movimiento predicho candidato que va a ser utilizada para codificar o decodificar el vector de movimiento actual como un vector de movimiento predicho candidato. I
El primer vector de movimiento adyacente es un
I
vector de movimiento de un bloque adyacente que está adyacente a un bloque que se va a procesar incluido en la imagen actual que se va a codificar! o decodificar. Además, el primer vector de movimiento adyacente indica una posición en una primera imagen de referencia incluida en la primera lista de imagen de referencia. El vector de movimiento actual es un vector de movimiento del bloque que \ se va a procesar. Además, el vector de movimiento actual indica una posición en una segunda imagen de referencia incluida en la segunda lista de imagen de referencia. ¡
La unidad de selección 502 selecciona un vector de
i
movimiento predicho que se va a utilizar para codificar o decodificar el vector de movimiento' actual a partir de una lista de candidatos que incluyei al primer vector de movimiento adyacente. La unidad de codificación 503 codifica i
el vector de movimiento actual uitilizando el vector de movimiento predicho seleccionado. La ¡ unidad de decodificación 504 decodifica el vector de movimie'nto actual utilizando el vector de movimiento predicho seleccionado.
I
En consecuencia, el aparato de codificación 500 y decodificación de imagen implementa : ambas de las funciones del aparato de codificación de imagen y del aparato de decodificación de imagen. i
i
Aunque el aparato de codificación de imagen y el aparato de decodificación de imagen de acuerdo con la presente invención se describen en: base en las modalidades, la presente invención no se limita a estas modalidades .
i
La presente invención incluye modificaciones concebidas por una persona experta en el ámbito ; utilizando modalidades y otras modalidades combinando arbit Irariamente los elementos constitutivos incluidos en las modalidades.
Por ejemplo, los procesos ¡realizados por una unidad de procesamiento particular se pueden llevar a cabo por otra i
unidad de procesamiento. Además, se ¡puede cambiar el orden de realización de los procesos y una pluralidad de procesos se pueden llevar a cabo en paralelo. t
i
Además, la presente invención se puede implementar i
no solo como un aparato de codificación de imagen y un i
aparato de decodificación de imagen sino también como un
I
método que utiliza, como etapas, los procesos realizados por i
las unidades de procesamiento incluidas en el aparato de i
codificación de imagen y el aparato de decodificación de imagen. Por ejemplo, estas etapas se ejecutan por una computadora. Además, la presente invención se puede implementar para provocar que una ¡computadora ejecute las etapas incluidas en el método como ¡un programa. Además, la presente invención se puede implémentar como un medio de grabación legible en computadora,' tal como un CD-ROM que graba el programa. ¡
En consecuencia, el aparato de codificación de imagen y el aparato de decodificación de imagen se implementan como un aparato 1 de codificación y de decodificación de imagen al ¡combinar los elementos constitutivos del aparato de codificación de imagen y el i
aparato de decodificación de imagen;.
I
Además, cada uno de los elementos constitutivos incluidos en el aparato de codificación de imagen y el i
aparato de decodificación de imagen se pueden implementar como integración a gran escala (LSI, por sus siglas en inglés) . Los elementos constitutivos se pueden elaborar en un chip o una pluralidad de chips de| manera que incluye a la i
totalidad o parte de los elementos constitutivos. Por i
ejemplo, los elementos constitutivos diferentes a una memoria i
se pueden integrar en un chip único. El nombre utilizado aquí es LSI, pero también se pueden denominar IC, sistema LSI, super LSI o ultra LSI, dependiendo del grado de integración.
i
Además las maneras de obtener integración no se limitan a LSI, y un circuito especial o un procesador de propósito general y parecido tamb'ién pueden alcanzar la
i
integración. También es aceptable ¡utilizar un arreglo de
i
compuerta programable de campo (FPGA, por sus siglas en inglés) que sea programable y un reconfigurable en
el cual las conexiones y ajustes de las celdas de circuito i
dentro del LSI sean configurables . |
En el futuro, con el avance en la tecnología de
I
semiconductores una tecnología completamente nueva puede
I
sustituir a los LSI. Los elementos ¡constitutivos incluidos en el aparato de codificación de imagen y en el aparato de decodificación de imagen se pueden integrar en un circuito i
utilizando esta tecnología. !
MODALIDAD 6
I
El procesamiento descrito en cada una de las i
modalidades se puede implementar ! de manera sencilla por grabación, sobre un medio de grabación, de un programa para implementar el método de codificací<5n de película (método de codificación de imagen) o de decodificación de película (método de decodi imagen) descrito en cada una de las modalidades . El medio de grabación puede ser cualquier medio de grabación en la medida en que el programa se pueda grabar en el mismo tal como un disco magnético, un
I
disco óptico, un disco magnético-óptlico, una tarjeta IC y una memoria de semiconductor. ¡
A continuación se describirán las aplicaciones al método de codificación de película (¡método de codificación de imagen) y el método de decodificación de película (método de decodificación de imagen) descritos en cada una de las modalidades y sistemas que utilizan los mismos. El sistema se define por la inclusión de un aparato de codificación y decodificación de imagen que ; incluye un aparato de codificación de imagen que utilizaj un método de codificación de imagen y un aparato de decodificación de imagen que utiliza un método de decodificación de imagen. Otra configuración en el sistema se puede cambiar apropiadamente de acuerdo con cada caso individual1.
La figura 14 ilustra una configuración general de i
un sistema exlOO que proporciona contenido para implementar servicios de distribución de contenido. El área para proporcionar servicios de comunicación se divide en celdas de tamaño deseado y estaciones base ¡ exl06 a exllO las cuales son estaciones inalámbricas fijas se colocan en cada una de las celdas. !
I
El sistema exlOO que proporciona contenido se
i
conecta a los dispositivos tal como1 una computadora exlll, un asistente digital personal exll2 ; (PDA, por sus siglas en
I
inglés), una cámara exll3, un teléfono celular exll4 y una máquina de juegos exll5 vía Internet exlOl, un proveedor de servicio de Internet exl02, una red de teléfono exl04 así como estaciones base exl06 a exllOJ
No obstante, la configuración del sistema exlOO que proporciona contenido no se limita a la configuración mostrada en la figura 14 y una combinación en la cual cualquiera de los elementos que se conectan es aceptable. Además, cada uno de los dispositivos se puede conectar directamente a la red de teléfono exl04 en vez de por medio de las estaciones base exl06 a exllO, las cuales son las estaciones inalámbricas fijas. Además, los dispositivos se pueden interconectar entre si por medio de comunicación inalámbrica de distancia corta y otros .
La cámara exll3 tal cómo una cámara de video
I
digital es capaz de captar video. Una cámara exll6, tal como una cámara de video digital, es capaz de captar tanto imágenes fijas como video. Además, el teléfono celular exll4 puede ser uno que satisfaga cualquiera de las normas tales como el sistema global para comunicaciones móviles (GSM, por sus siglas en inglés) , acceso múltiple de división de código (CDMA, por sus siglas en inglés) , acceso múltiple de división de código de banda ancha (W-CDMA, por sus siglas en inglés) , evolución a largo plazo (LTE, por ¡sus siglas en inglés) , y acceso de paquete de alta velocidad^ (HSPA, por sus siglas en inglés) . De manera alternativa, el teléfono celular exll4 puede ser un sistema de teléfono portátil personal (PHS, por sus siglas en inglés) . ¡
En el sistema de suministro de contenido exlOO, un servidor de emisión en continua exlÓ3 se conecta a la cámara exll3 y otros por medio de la redi de teléfono exl04 y la estación base exl09, la cual habilita la distribución de un
i
I
i
programa en vivo y otros. Para tal ¡distribución, un contenido (por ejemplo, video de un programa 'en vivo de música) captado por el usuario utilizando la cámara exll3 es codificado como se describe en lo anterior en cada una de las modalidades y el contenido codificado se transmite al servidor de emisión en continua exl03. Por otra parte, ,el servidor de emisión en i
continua exl03 lleva a cabo la dis Itribución de la corriente de los datos de contenido recibidos ¡a los clientes en base en
I
las solicitudes. Los clientes incluyen la computadora exlll, el PDA exll2, la cámara exll3, el téléfono celular exll4 y la i
máquina de juegos exll5 que son capaces de decodificar los
I
datos codificados mencionados en lo lanterior. Cada uno de los
I
dispositivos que ha recibido los datos distribuidos decodifica y reproduce los datos ¡ codificados (es decir, funciona como un aparato de decodificación de imagen de
I
acuerdo con la presente invención) . ¡
j
Los datos captados pueden ser codificados por la cámara exll3 o el servidor de emisión en continua exl03 que
I
transmite los datos o los procesos de codificación pueden ser
i
compartidos entre la cámara exll3 y el servidor de emisión en continua exl03. De manera similar,; los datos distribuidos pueden ser decodificados por los clientes o el servidor de emisión en continua exl03, o los pr'pcesos de decodificación se pueden compartir entre los clientes y el servidor de emisión en continua exl03. Además, los datos de las imágenes
I
!
fijas y el video captado no solo; por la cámara exll3 sino
I
también por la cámara exll6 se pueden transmitir al servidor de emisión en continua exl03 a través de la computadora exlll. Los procesos de codificación se pueden realizar por la cámara exll6, la computadora exlll' o el servidor de emisión en continua exl03 o se pueden compartir entre ellos.
Además, los procesos ¡ de codificación y de decodificación se pueden realizar por un LSI ex500 incluido generalmente en cada una de la , computadora exlll y los dispositivos. La LSI ex500 se puéde configurar de un chip único o una pluralidad de chips . El1 programa para codificar y decodificar imágenes se puede integrar en algún tipo de medio
i
de grabación (tal como un CD-ROM, un disco flexible, un disco duro) que es legible por la computadora exlll y otros, y los i
procesos de codificación y de decodificación se pueden realizar utilizando el programa. Además, cuando el teléfono i
celular exll4 se equipa con una cámára, los datos de película obtenidos por la cámara se pueden ¡transmitir. Los datos de video son datos codificados por la| LSI ex500 e incluyen el teléfono celular exll4. I
I
Además, el servidor de emisión en continua exl03 puede estar constituido de servidores y computadoras y puede descentralizar datos y procesar los datos descentralizados, grabar o distribuir datos . ¡
Como se describe en lo i anterior, los clientes pueden recibir y reproducir los j datos codificados en el
i
sistema de suministro de contenido! exlOO. En otras palabras,
I
los clientes pueden recibir y¡ decodificar información transmitida por el usuario y reproducir los datos decodificados en tiempo real en el sistema de suministro de contenido exlOO de manera que el usuario quien no tenga un derecho particular y equipo puede implementar difusión personal . J
i
Además del ejemplo del sistema exlOO del suministro de contenido, por lo menos un apjarato de codificación de película (aparato de codificación de imagen) y el aparato de
I
decodificación de película (aparato de decodificación de i
I
imagen) descritos en cada una de ¡las modalidades se puede i
implementar en un sistema de difusión digital ex200 ilustrado en la figura 15. De manera más específica, una estación ex201 de difusión comunica o se transmite i , por medio de ondas de radio a un satélite de difusión ex202, los datos multiplexados obtenidos al multiplexar datos de audio y otros i
en datos de video. Los datos de video son datos codificados
I
por el método de codificación de película descrito en cada una de las modalidades (esto es, losj datos codificados por el
. .. . '|
aparato de codificación de imagen dé acuerdo con la presente
I
invención). Ante la recepción de I datos multiplexados, el satélite de difusión ex202 transmite ondas de radio para difusión. Después, una antena de casero ex204, con una
función de recepción de difusión de satélite recibe las ondas
I
de radio. Después, un dispositivo tal como una televisión (receptor ex300 y una caja decodificadora (STB, por sus siglas en inglés) , decodifica los datos multiplexados recibidos y reproduce los datos ¡ decodificados (es decir, funciona como el aparato de decódificación de imagen de acuerdo con la presente invención) . '
I
Además, un lector/grabador ex218 que: (i) lee y decodifica datos multiplexados grabados en un medio de grabación ex215, tal como un DVD y un BD, o (ii) codifica i
señales de video en el medio de grabación ex215 y, en algunos
I
casos, escribe datos obtenidos al \ multiplexar una señal de audio sobre datos codificados puede incluir el aparato de i
decodificación de película o el aparato de codificación de película como se muestra en cada ¡ una de las modalidades. En cada caso las señales de video reproducidas se muestran en el monitor ex219 y se pueden reproducir por otro dispositivo o sistema utilizando el medio de grabación ex215 en el cual i
se graban los datos multiplexados. Además, también es posible implementar el aparato de decodificación de imagen en la caja
i
decodificadora ex217 conectada al cable para televisión por cable ex203 o la antena para difusión por satélite y/o i
terrestre ex204, de manera que muestre las señales de video en el monitor ex219 de la televisión ex300. El aparato de decodificación de película se puede ; incluir no en la caja de decodificación sino en la televisión ex300.
La figura 16 ilustra la televisión ex300 (receptor) que utiliza el método de codificación de película y el método de decodificación de película descrito en cada una de las modalidades. -La televisión ex300 incluye: un sintonizador ex301 que obtiene o proporciona datos multiplexados obtenidos al multiplexar datos de audio en datos de video, a través de la antena ex204 o el cable ex2Ü3, etc., que recibe una difusión; una unidad de modúlación/desmodulación que desmodula los datos multiplexados recibidos o modula datos en datos multiplexados que van a ser suministrados al exterior ex302; y una unidad de multiplexado/desmultiplexado que desmultiplexa los datos multiplexados modulados en datos de i
video y datos de audio, o que multiplexa datos de video y datos de audio codificados ex303 por una unidad de
i
procesamiento de señal en datos ex30j6.
La televisión ex300 incluye además: una unidad ex306 de procesamiento de señal que incluye una unidad de
i
procesamiento de señal de audio >ex304 y una unidad de i
procesamiento de señal de video ex305 (que funcionan como el aparato de codificación de imagen o el aparato de decodificación de imagen de acuerdo con la presente invención) que decodifican datos de ¡audio y datos de video y codifican datos de audio y datos deo, respectivamente; un altavoz ex307 que proporciona la señal de audio decodificada; una unidad de salida ex309 que incluye una unidad ex308 de exhibición que muestra la señal de video decodificada, tal como una pantalla. Además, la televisión
I
ex300 incluye una unidad de interconexión ex317 que incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación del usuario. Además, la televisión ex300 incluye una unidad de control ex310 que controla en la i
generalidad de cada elemento constitutivo de la televisión
I
ex300 y una unidad de circuito de suministro de energía ex311 que suministra energía a cada uno dé los elementos. Además de la unidad de entrada de operación ex312, la unidad de interconexión ex317 puede incluir:, un puente ex313 que se i
conecta a un dispositivo externo tal como un lector/grabador ex218, una unidad de ranura ex314 ' para habilitar la unión del medio de grabación ex216 tal jcomo una tarjeta SD; un activador ex315 para ser conectadoja un medio de grabación
I
externo tal como un disco duro; y 1 un modem ex316 para ser i
conectado a una red telefónica. Aquí, el medio ex216 de
I
i
grabación puede grabar eléctricamente información utilizando i
un elemento de memoria semiconductora no volátil/volátil para almacenamiento. Los elementos constitutivos de la televisión i
ex300 se conectan entre sí a través de un enlace común i
sincrónico. !
En primer lugar se describirá una configuración en la cual la televisión ex300 decodifjica datos obtenidos del
exterior a través de la antena ex2Ó4 y otros, y reproduce los
i
datos decodificados . En la televisión ex300, ante la í
operación de usuario de un controlador remoto ex220 u otros,
i
la unidad ex303 de multiplexado/desmultiplexado desmultiplexa
¡
los datos multiplexados desmoduladbs por la unidad ex302 de modulación/desmodulación, bajo el ¡control de la unidad de í
control ex310 que incluye una CE^U. Además, la unidad de procesamiento de señal de audio ex304 decodifica los datos de
i
audio desmultiplexados y la unidad jde procesamiento de señal
I
de video ex305 decodifica los datosj de video desmultiplexados
i
utilizando el método de decodificación descrito en cada una
i
de las modalidades en la televisión ex300. La unidad de salida ex309 proporciona la señal de video decodificada y la
i
señal de audio exterior. Cuando la unidad de salida ex309
I
proporciona la señal de video y jla señal de audio, las
j
señales pueden ser almacenadas temporalmente en memorias
I
intermedias ex318 y ex319 y otras de manera que las señales
i
sean reproducidas en sincronización entre sí. Además, la televisión ex300 puede leer una corriente de bitios
I
codificada no a través de una difusión y otros sino a partir i
de los medios de registro ex215 y ex216, tal como un disco magnético, un disco óptico y una, ta jeta SD. A continuación se describirá una configuración en¡ la cual la televisión ex300 codifica una señal de audio y una señal de video y transmite los datos al exterior o escribe los datos en un medio de grabación. En la televisión ex300, ante una í
operación de usuario del controlador remoto ex220 y otros, la unidad de procesamiento de señal de audio ex304 codifica una
i
señal de audio y la unidad de procesamiento de señal de video
i
ex305 codifica una señal de video, bajo el control de la i
unidad de control ex310 utilizando j el método de codificación i
descrito en cada una de las modalidades . La unidad ex303 de multiplexado/desmultiplexado multiplexa la señal de video
i
codificada y la señal de audio ' y proporciona la señal
i
resultante al exterior. Cuando! la unidad ex303 de i
i
multiplexado/desmultiplexado multiplexa la señal de video y la señal de audio, las señales | pueden ser almacenadas
I
temporalmente en memorias intermedias ex320 y ex321 y otras de manera que las señales sean repr†ducidas en sincronización entre si. Aquí, las memorias interm'edias ex318, ex319, ex320
i
y ex321 pueden ser una pluralidad como se ilustra, o por lo
i
menos una memoria intermedia puede ser compartida en la televisión ex300. Además, los datos jpueden ser almacenados en una memoria intermedia diferente del las memorias intermedias
I
I
ex318 a ex321 de manera que el flujo excesivo y el flujo i
insuficiente del sistema se puedenj evitar entre la unidad
i
ex302 de modulación/desmodulación | y la unidad ex303 de
i
multiplexado/desmultiplexado, por ejemplo.
I
Además, la televisión ex300 puede incluir una
i
configuración para recibir una entrada de AV de un micrófono o una cámara diferente de la configuración para obtener datos de audio y de video de una difusión' o un medio de grabación y puede codificar los datos obtenidos. Aunque la televisión i
ex300 puede codificar, multiplexar y proporcionar al exterior
i
datos en la descripción, puede no ser capaz de realizar todos los procesos sino ser capaz de únicamente uno de recibir, decodificar y proporcionar datos al i exterior.
Además, cuando el lector/grabador ex218 lee o escribe datos multiplexados desde o sobre un medio de grabación, uno de la televisión ek300 y el lector/grabador ex218 puede decodificar o codificar j los datos multiplexados y la televisión ex300 y el lect'pr/grabador ex218 puede compartir la decodificación o codificación.
Como un ejemplo, la ¡figura 17 ilustra una configuración de una unidad reproductora/grabadora de información ex400 cuando los datos son leídos o escritos
I
desde o en un disco óptico. La unidad de reproducción/grabación de información ex400 incluye elementos constitutivos ex401, ex402, ex403,¡ ex404, ex405, ex406 y
i
ex407 que se describirán posteriormente. La cabeza óptica ex401 irradia un punto láser sobre una superficie de i
grabación del medio de grabación ex215 que es un disco óptico para escribir información y detecta luz reflejada de la superficie de grabación del medio jde grabación ex215 para leer la información. La unidad de I grabación de modulación ?
I
ex402 activa eléctricamente un láser semiconductor incluido en la cabeza óptica ex 01 y modula la luz láser de acuerdo con los datos grabados. La unidad de desmodulación de reproducción ex403 amplifica una señal de reproducción obtenida al detectar eléctricamente la luz reflejada de la
i
superficie de grabación utilizando' un fotodetector incluido en la cabeza óptica ex401 y 1 desmodula la señal de reproducción al separar un componente de señal grabado en el medio de grabación ex215 para reproducir la información necesaria. La memoria intermedia ex404 retiene temporalmente la información que se va a grabar jen el medio de grabación ex215 y la información reproducida del medio de grabación ex215. Un motor de disco ex405 ¡hace girar el medio de grabación ex215. Una unidad de servo control ex406 mueve la cabeza óptica ex401 a una pista de información predeterminada
i
mientras que controla la unidad de! rotación del motor ex405 del disco de manera que sigue el p¡unto láser. La unidad de control de sistema ex407 controlaren general la unidad de reproducción/grabación de información ex400. Los procesos de lectura y escritura se pueden implémentar por la unidad de control de sistema ex407 utilizándo diversa información i
almacenada en la memoria intermedia ex404 y generar y agregar información nueva según sea necesario y por la unidad de grabación de modulación ex402, la unidad de desmodulación de reproducción ex403 y la unidad de ¡servo control ex406 que graban y reproducen información a 'través de la cabeza óptica ex40l mientras son operadas de una manera coordinada. La unidad de control de sistema ex407í incluye, por ejemplo, un
I
microprocesador y ejecuta el procjesamiento al provocar que una computadora ejecute un programa1 para leer y escribir.
Aunque la cabeza óptica ex401 irradia un punto láser en la descripción, puede realizar una grabación de alta densidad utilizando luz de campo cercano.
i
La figura 18 ilustra esquemáticamente el medio de
1
grabación ex215 que es el disco óptico. En la superficie de i
grabación del medio de grabación ex215, se forman espiralmente surcos guía, y una pista de información ex230 graba, por adelantado, información! de dirección que indica una posición absoluta en el disco de acuerdo con el cambio en
i
la forma de los surcos guía. La .información de dirección incluye información para determinar posiciones de los bloques de grabación ex231 que son una unidad para datos de grabación. Un aparato que grabe y reproduce datos reproduce i
la pista de información ex230 y I lee la información de dirección de manera que determina', las posiciones de los bloques de grabación. Además, el medio de grabación ex215
!
incluye un área de grabación de datos ex233, un área de
I
circunferencia interior ex232 y un1 área de circunferencia
i
exterior ex234. El área de grabación de datos ex233 es un área para uso en la grabación de los datos de usuario. El área de circunferencia interior ex232 y el área de circunferencia exterior ex234 que están dentro y fuera del área de grabación de datos ex233,¡ respectivamente son para uso específico excepto para grabación de los datos de usuario. La unidad de información ex400 lee y escribe , datos de
video codificados o datos codificados obtenidos por multiplexado de los datos de video codificados y los datos de i
video codificados, hacia y sobre leí área de grabación de i
datos ex233 del medio de grabación x215.
i
Aunque un disco óptico que tiene una capa tal como
I
un DVD y un BD se describen ¡como un ejemplo en la descripción, el disco óptico no se limita a estos y puede ser í
un disco óptico que tenga una estructura multiestratificada y que sea capaz de ser grabado en una parte diferente de la superficie. Además, el disco puede tener una
estructura para grabación/reproducdión multidimensional tal como grabación de información utilizando luz de colores con i
i
longitudes de onda diferentes en la! misma porción del disco óptico e información de grabación que tenga capas diferentes i
de diversos ángulos . ]
¡
Además, un vehículo ex210 que tenga una antena ex205 puede recibir datos de satjélite ex202 y otros y
I
reproducir video sobre un dispositivo de presentación tal i
como un sistema de navegación de vehículo ex211 colocado en
el vehículo ex210, en el sistema jde difusión digital ex200.
Aquí, una configuración del sistema de navegación de vehículo
i
ex211 será una, por ejemplo, ¡ que incluye una unidad
I
receptora GPS en la configuración 'ilustrada en la figura 16.
I
Lo mismo será válido para la configuración de la computadora i
exlll, el teléfono celular exll4 y 'otros.
La figura 19A ilustra el ¡teléfono celular exll4 que utiliza el método de codificación de película y el método de
I
decodificación de película descrito en las modalidades.
i
El teléfono celular exll4 incluye: una antena para transmitir y recibir ondas de radio ex350 a tjravés de la estación base exllO; una unidad de cámara ex365 capaz de captar imágenes en movimiento y fijas; y una unidad dje visualización ex358 tal i
como una pantalla de cristal líquido para mostrar los datos
i
tales como video decodificado captado por la unidad de cámara ex365 o recibido por la antena ex350. El teléfono celular
i
exll4 incluye además: una unidad jde cuerpo principal que incluye un conjunto de botones de operación ex366, una unidad de salida de audio ex357 tal como uin altavoz para salida de audio; una unidad de entrada 356 tal como un micrófono para la introducción una unidad de memoria ex367 para almacenar video o fijas captadas, audio grabado, datos o decodificados
del video recibido, las imágenes fijas, correos electrónicos í
u otros; y una unidad de ranura ex364 que es una unidad de
interconexión para un medio de grabación que almacena datos de la misma manera que la unidad de memoria ex367.
A continuación se describirá un ejemplo de una configuración de un teléfono celular exll4 descrito con referencia a la figura 19B. En el teléfono celular exll4, una
I
unidad de control principal ex360 ¡diseñada para controlar la totalidad de cada unidad del cuerpo principal que incluye la unidad de visualización ex358 a'sí como los botones de i
i
operación ex366 se conecta mutuamente, por medio de un enlace
i
común sincrónico ex370 a una unidad i de circuito de suministro de energía ex361, una unidad de control de entrada de operación ex362, una unidad de procesamiento de señal de i
video ex355, una unidad de interconexión de cámara ex363, una unidad de control de pantalla de cristal líquido ex359 (LCD, por sus siglas en inglés) , una unidad de
i
modulación/desmodulación ex352, ; una unidad de i
multiplexado/desmultiplexado ex353, una unidad de procesamiento de señal de audio ex;354, la unidad de ranura ex364 y la unidad de memoria ex367. !
Cuando un botón de finalización de llamada y un botón de energía se ENCIENDEN por la operación de un usuario, la unidad de circuito de suministro de energía ex360 suministra a las unidades respectivas con energía desde un paquete de batería de manera que activa el teléfono celular exll4 que es digital y está equipado! con una cámara.
i
i
I
En el teléfono celular exll4 , la unidad de procesamiento de señal de audio ex354 convierte las señales de audio recolectadas por la unidad de entrada de audio ex356
I
en modo de conversación de voz enj señales de audio digital bajo el control de la unidad de control principal ex360 que incluye una CPU, ROM y RAM. ' Después, la unidad de modulación/desmodulación ex352 realiza procesamiento de i
espectro de difusión sobre las señales de audio digitales y i
la unidad ex351 transmisora y receptora realiza conversión digital a analógica y conversión j de frecuencia sobre los datos de manera que transmite los ! datos resultantes via la antena ex350. Además, en el teléfono celular exll4, la unidad ex351 transmisora y receptora amplifica los datos recibidos
I
por la antena ex350 en el modo de conversación de voz y realiza la conversión de frecuencia ¡y la conversión analógica i
a digital respecto a los datos . j Después, la unidad de
I
modulación/desmodulación ex352 realiza el procesamiento de espectro de dispersión inversa sobre1 los datos y la unidad de procesamiento de señal de audio ex35<l la convierte en señales i
de audio analógicas de manera que las transmite vía la unidad ex356 de salida de audio. ¡
i
Además, cuando se transmite un correo electrónico en el modo de comunicación de datos i los datos de texto del i
correo electrónico introducidos al operar los botones de operación ex366 y otros del cuerpo principal son enviados a la unidad de control principal vía la unidad de control de entrada de operación ex362. Después, la unidad de modulación/desmodulación ex352 realiza procesamiento de espectro de dispersión sobre las señales de audio digitales y la unidad ex351 de transmisión ¡ y recepción realiza la conversión digital a analógica y la conversión de frecuencia respecto a los datos de manera ¡ que transmite los datos resultantes vía la antena ex350. Cuando se recibe un correo electrónico, el procesamiento que es aproximadamente inverso al procesamiento para transmitir ¡un correo electrónico se realiza sobre los datos recibidos y los datos resultantes se
i
proporcionan a la unidad de visualización ex358.
Cuando se transmiten video, imágenes físicas o video y audio en el modo de comunicación de datos, la unidad de procesamiento de señal de video ¡ex355 comprime y codifica señales de video suministradas desde la unidad de cámara ex365 utilizando el método de codificación de película mostrado en cada una de las modalidades (es decir, funciona como el aparato de codificación de ¡imagen de acuerdo con la presente invención) y transmite', los datos de video i
codificados a la unidad de multiplexado/desmultiplexado ex353. En contraste, durante cuando la unidad de cámara ex365 capta video, imágenes fijas y ' otras, la unidad de procesamiento de señal de audio ex354 codifica señales de audio recolectadas por la entrada ex356 de entrada de audio y i
transmite los datos de audio codificados a la unidad de multiplexado/desmultiplexado ex353.
La unidad de multiplexado/desmultiplexado ex353 multiplexa los datos de video codificados suministrados desde
I
la unidad de procesamiento de señal de video ex355 y los datos de audio codificados suministrados desde la unidad de procesamiento de señal de audio utilizando un método
predeterminado. Después, ¡ la unidad de
I
modulación/desmodulación (unidad en circuito de i
modulación/desmodulación) ex352 realizan el procesamiento de espectro de dispersión respecto la las señales de audio digital y la unidad ex351 transmisora y receptora realiza la conversión digital a analógica y conversión de frecuencia
respecto a los datos de manera \ que transmite los datos
I
resultantes vía la antena ex350. ¡
Cuando se reciben datos de un archivo de video el cual está unido a una página de la ¡red y otros en el modo de
?
comunicación de datos o cuando' se recibe un correo electrónico con video y/o audio i unido, con el fin de decodificar los datos multiplexados recibidos vía la antena i
ex350, la unidad de multiplexado/desmultiplexado ex353 desmultiplexa los datos multiplexados en una corriente de bitios de datos de video y una corriente de bitios de datos de audio y suministra la unidad de procesamiento de señal de video ex355 con los datos de video codificados y la unidad de
I
procesamiento de señal de audio ex354 con los datos de audio codificados, a través del enlace común sincrónico ex370. La
I
unidad de procesamiento de señal de video ex355 decodifica la
i
señal de video utilizando el método de decodificación de
i
película que corresponde al método de codificación de película mostrado en cada una de las modalidades (es decir, funciona como el aparato de decodificación de imagen de
I
acuerdo con la presente invención) y después la unidad de
i
presentación muestra ex358, por ejemplo, las imágenes de video y fijas incluidas en el archivo de video unido a la página de la red por medio de la Unidad ex359 de control de LCD. Además, la unidad de procesamiento de señal de audio ex354 decodifica la señal de audio j y la unidad de salida de audio ex357 proporciona el audio. j
Además, de un modo similar a la televisión ex300, una terminal tal como el teléfono celular exll4 puede tener tres tipos de configuraciones de implementación que incluyen
I
no solo: (i) una terminal de transmisión y recepción que
i
incluye tanto un aparato de codificación como un aparato de decodificación sino también (ii) una terminal de transmisión que incluye únicamente un aparJto de codificación, y
(iii) una terminal receptora que ! incluye únicamente un
i
aparato de decodificación. Aunque i el sistema de difusión digital ex200 recibe y transmite jlos datos multiplexados obtenidos al multiplexar datos de audio sobre datos de video en la descripción, los datos multíplexados pueden ser datos obtenidos por multiplexado no de datos de audio sino datos de carácter relacionados con video sobre datos de video y pueden ser datos no multíplexados sino datos de video mismos.
De esta manera, el método de codificación de película y el método de decodificáción de película en cada
¡
una de las modalidades se puede uti!lizar en cualquiera de los dispositivos y sistemas descritos. ¡ De esta manera se pueden obtener las ventajas descritas ! en cada una de las modalidades.
Además, la presente invención no se limita a las modalidades y son posibles diversas modificaciones y revisiones sin apartarse del alcance de la presente invención. |
MODALIDAD
Se pueden generar datos de video por conmutación, según sea necesario, entre: (i) el jmétodo de codificación de película o el aparato de codificáción de película que se muestra en cada una de las modalidades, y (ii) un método de codificación de película o un apárato de codificación de película de conformidad con una ijiorma diferente tal como MPEG-2, MPEG-4, AVC y VC-1. |
Aquí, cuando una pluralidad de datos de video que se adapta a normas diferentes se genera y después es decodificado, los métodos de decodificación necesarios que se van a seleccionar para adaptarse á las diferentes normas. No i
obstante, puesto que cada norma de, cada una de la pluralidad de datos de video que se van a de odificar que se conforman no se pueden identificar, existe ¡el problema de que no se
i
pueda seleccionar un método de deco&ificación apropiado.
i
Con el fin de resolver, el problema, los datos multiplexados obtenidos por multipljexado de datos de audio y otros sobre datos de video tienen una estructura que incluye
i
información de identificación que indica a cual estándar de
I
datos de video se adapta. La estructura específica de los i
datos multiplexados que incluyen datos de video generados en
i
el método de codificación de película y por el aparato de
i
codificación de película mostrado en cada una de las
I
modalidades se describirán en lo siguiente. Los datos multiplexados es una corriente digital en el formato de corriente de transporte MPEG2. [
i
La figura 20 ilustra una i estructura de los datos multiplexados. Como se ilustra la figura 20, los datos multiplexados se pueden obtener multiplexar por lo menos uno de una corriente de video, corriente de audio, una corriente de gráficos de presentación (PG, por sus siglas en inglés) y una corriente de gráficos interactiva. La corriente de video representa video primario y video secundario de una película, la corriente de audio (IG) representa una parte de audio primaria y una parte de audio secundaria que se va a
i
i
combinar con la parte de audio primaria y la corriente de gráficos de presentación representa subtítulos de una película. Aquí, el video primario es video normal que se va a presentar sobre una pantalla y el : video secundario es video que se va a presentar en una ventana más pequeña en el video principal. Además, la corriente '; de gráficos interactiva representa una pantalla interactiva que se va a generar al distribuir los componentes GUI ¡sobre una pantalla. La corriente de video es codificada en¡ el método de codificación de película o por el aparato de ¡ codificación de película mostrado en cada una de las modalidades o en un método de codificación de película o por un aparato de codificación de película de conformidad con un estándar convencional tal como
MPEG-2, MPEG-4, AVC y VC-1. La! corriente de audio es codificada de acuerdo con un estándar tal como Dolby-AC-3,
i
Dolby Digital Plus, MLP, DTS , DTS-HD¡ y PCM lineal.
Cada corriente incluida eit los datos multiplexados
i
se identifica por PID. Por ejemplo!, 0x1011 se asigna a la corriente de video que va a ser utilizada para el video de una película, 0x1100 a OxlllF se asignan a las corrientes de audio, 0x1200 a 0xl21F se asignan a las corrientes de gráficos de presentación, 0x1400 a ¡0xl41F se asignan a las corrientes de gráficos interactivos, OxlBOO a OxlBlF se asignan a las corrientes de video cpie van a se utilizadas para video secundario de la película y OxlAOO a OxlAlF se
asignan a las corrientes de audio que van a ser utilizadas para el video secundario para combinarse con el audio primario.
La figura 21 ilustra esquemáticamente como se multiplexan los datos . En primer lugar, una corriente de video ex235 constituido de marcos de video y una corriente de audio ex238 constituida de marcos de audio se transforman en corrientes de paquetes PES ex236 y¡una corriente de paquetes
I
el PES x239 y adicionalmente en paquetes TS ex237 y paquetes
TS ex240, respectivamente. Similafmente , los datos de una corriente de gráficos de presentación ex241 y datos de una corriente de gráficos ex244 interactivos de transforman en
i
una corriente de paquetes PES ex242 y una corriente de paquetes PES ex245, y además en paquetes TS ex243 y paquetes TS ex246, respectivamente. Estos paquetes TS son multiplexados en una corriente para obtener datos multiplexados ex247. j
i
La figura 22 ilustra la manera en que una corriente de video es almacenada en una corriente de paquetes PES con mayor detalle. La primera barra en lia figura 22 muestra una corriente de marco de video en úna corriente de video.
La segunda barra muestra la corriente de paquetes PES. Como se indica por las flechas indicadas ¡como yy2< yy2( yy3 e yy4 en la figura 22, la corriente de video se divide en imágenes como imágenes I, imágenes B e imágenes P, cada una de las cuales es una unidad de presentación de video y las imágenes de almacenan en una información j útil de cada uno de los paquetes PES . Cada uno de losj paquetes PES tiene un encabezador PES y el encabezador ¡PES almacena una marca de tiempo de presentación (PTS, por |sus siglas en inglés) que indica una hora de presentación de| la imagen y una marca de tiempo de decodificación (DTS, por¡ sus siglas en inglés) que
I
indica un tiempo de decodificación 'de la imagen.
La figura 23 ilustra un formato de paquetes TS que ?
van a ser escritos finalmente enj los datos multiplexados . Cada uno de los paquetes TS es un p!aquete de longitud fija de 188 octetos que incluye un encabezador TS de 4 octetos que tiene información tal como un PID para identificar una í
corriente y una información útil j TS de 184 octetos para almacenar datos. Los paquetes PES se dividen y almacenan en las informaciones útiles TS, respectivamente. Cuando se utilizan BD ROM, cada uno de Jlos paquetes TS se le i
proporciona con un encabezador adicional TP (TP_Extra_Header) i
de 4 octetos y de esta manera se obtienen paquetes fuente de
I
192 octetos. Los paquetes fuentes se escriben sobre los datos j
multiplexados. El encabezador adiqional TP TP_Extra_Header í
almacena información tal como una marca de tiempo de llegada
(ATS, por sus siglas en inglés) (Ar'rival_Time_Stamp) . El ATS muestra un tiempo de inicio de transferencia en el cual cada uno de los paquetes TS va a ser transferido a un filtro PID.
Los paquetes fuente se distribuyen ; en los datos multiplexados como se muestran en la parte inférior de la figura 23. Los números se incrementan desde el encabezado de los datos multiplexados se les denomina números de paquete fuente (SPN,
i
por sus siglas en inglés) . !
Cada uno de los paquetes TS incluidos en los datos multiplexados incluye no solo corriente de audio, video,
?
subtítulos y otros sino también uha tabla de asociación de programa (PAT, por sus siglas en inglés) , una tabla de mapa de programa (PMT, por sus siglas eri inglés) , y una referencia de reloj de programa (PCR, por sus ¡ siglas en inglés). La PAT muestra que un PID en un PMT ¡utilizando en los datos multiplexados indica y un PID de, la PAT en si misma es registrada como cero. La PMT almacena los PID de las corrientes de video, audio, subtítülos y otros incluidos en los datos multiplexados y atribuye información de las corrientes que corresponden a los PID. La PMT también tiene varios elementos de descripción en relación á los datos multiplexados. Los elementos de descripción tienen información tal como información ¡a control de copia que muestra si el copiado de los datos multiplexados se permite o no. La PCR almacena información de tiempo STC que corresponde a una ATS que muestra en que momento el paquete PCR es transferido a un decodificador, icón el fin de obtener i
sincronización entre el reloj de tiempo de llegada (ATC, por I
sus siglas en inglés) que es un eje de tiempo de los ATS y un reloj de tiempo de sistema (STC, por sus siglas en inglés) , que es un eje de tiempo de los PTS y DTS .
La figura 24 ilustra la ; estructura de datos de la PMT con detalle. Se coloca un encabezador de PTM en la parte superior de la PMT. El encabezador de PMT describe la longitud de datos incluidos en la PMT y otros . Una pluralidad de elementos de descripción eri relación a los datos i
multiplexados se muestra después del encabezador PMT. La información tal como la información de control de copias se describe en los descriptores. Después de los descriptores, se colocan una pluralidad de piezas de información de corriente en relación a las corrientes incluidas en los datos multiplexados. Cada pieza de información de corriente incluye elementos de descripción de corrientes, cada uno describe
I
información tal como un tipo de corriente para identificar un codee de compresión de una corriente, un PID de corriente e i
información de atributo de corriente (tal como velocidad de i
marco o relación de aspecto) . Los elementos de descripción de i
corriente son iguales en número al número de corrientes en
i
los datos multiplexados. ¡
i
Cuando los datos multiplexados se graban en un medio de grabación y otros, se graban junto con los archivos de información de datos multiplexados.
Cada uno de los archivos; de información de datos
i
I
I
multiplexados es información de manejo de los datos multiplexados como se muestra en la figura 25. Los archivos de información de datos multiplexados están en una correspondencia uno a uno con los datos multiplexados, y cada uno de los archivos incluye! información de datos multiplexados, información de atributos de corriente y un mapa de entrada . |
Como se ilustra en la figura 25, los datos multiplexados incluyen velocidad de sistema, un tiempo de inicio de reproducción y un tiempo de fin de reproducción. La velocidad del sistema indica la 'velocidad de transferencia máxima a la cual un decodificador objetivo de sistema que se describirá posteriormente transfiere los datos multiplexados a un filtro PID. Los intervalos dei los ATS incluidos en los datos multiplexados se establecen 'para que sean no mayores
I
que una velocidad de sistema. El tiempo de inicio de
I
reproducción indica una PTS en un marco de video en el encabezado de los datos multiplexados. Se agrega un intervalo dé un marco a una PTS en un marco ide video al final de los datos multiplexados y la PTS se establece en el tiempo de fin de reproducción. i
Como se muestra en la figura 26, una pieza de información de atributo se registra en la información de atributo de corriente para cada ¡ PID de cada corriente incluida en los datos multiple'xados . Cada pieza de información de atributos tierie información diferente dependiendo de si la corriente; correspondiente es una corriente de video, una corriente de audio, una corriente de gráficos de presentación o una corriente de gráficos interactiva. Cada pieza de información de atributo de corriente de video transporta información que incluye cual clase de compresión se utiliza paraj comprimir la corriente de video, y la resolución, la relación de aspecto y la velocidad de marco de las imágenes de datos |de imagen que se incluyen en la corriente de video. Cada ¡pieza de información de atributo de corriente de audio transporta información que incluye que clase de codee de compresión se utiliza para comprimir la corriente de audio, cuantos canales incluyen en la corriente de audio, cual lenguaj¡e soporta la corriente de audio y que tan elevada es la ! frecuencia de muestreo. La información de atributo de corriente de video y la información de atributo de corriente de audio se utilizan para inicialización de un decodificador antes de que el reproductor reproduzca la información.
En la modalidad 7, los dantos multiplexados que se van a utilizar son del tipo de corriente incluida en la PMT. Además, cuando los datos multiplexados se graban en un medio de grabación, se utiliza la información de atributos de corriente de video incluida en ! información de datos multiplexados. De manera más específica, el método de
i
!
codificación de película o el aparato de codificación de
I
película descrito en cada una de las modalidades incluye una i
etapa o una unidad para asignar información única que indica
i
datos de video generados por el |método de codificación de película o el aparato de codificación de película en cada una
i
de las modalidades, al tipo de corriente incluido en la PMT
í
de la información de atributo de corriente de video. Con la i
configuración, los datos de video generados por el método de i
codificación de película o el aparato de codificación de i
película descritos en cada una de jlas modalidades se pueden distinguir de los datos de video que cumplen con otro estándar. |
I
Además, la figura 27 ilustra etapas del método de decodificación de película de acuerdo con la modalidad 7.
i
En la etapa exSlOO, el tipo de c r iente en la PMT o la información de atributo de corrient I e de video se obtiene a
I
partir de los datos multiplexados. Después, en la etapa exSlOl, se determina si el tipo de corriente o la información
I
i
de atributo de corriente de video indica o no que los datos multiplexados se generan por el método de codificación de
I
película o el aparato de codificación de película en cada una de las modalidades. Cuando se determina que el tipo de corriente o la información de atributo de corriente de video
I
indica que los datos multiplexados ¡se generan por el método
j
de codificación de película o el abarato de codificación de
i
película en cada una de las modalidades, en la etapa exS102 el tipo de corriente o la información de atributo de corriente de video es decodifícada por el método de decodificación de película en cada una de las modalidades. Además, cuando el tipo de corriente de la información de atributo de corriente de video indica conformidad con los
i
estándares convencionales, tales coimo MPEG-2, MPEG-4, AVC y
VC-1, en la etapa exS103 el tjipo de corriente de la información de atributo de corriente de video se decodifica por un método de decodificación de película de conformidad con los estándares convencionales . 1
De esta manera, la asignación de un valor único nuevo al tipo de corriente o a la información de atributo
i
de corriente de video habilita l determinación de si el método de decodificación de película o el aparato de decodificación de película que se! describe en cada una de las modalidades puede o no realizar la decodificación.
Incluso ante una entrada de datos multiplexados que se
I
conforman a un estándar diferente,! se puede seleccionar un método o aparato de decodificaqión apropiado. De esta manera, se vuelve posible decodificar información sin error alguno. Además, el método o! aparato de codificación de película o el método o aparato de decodificación de i
película en la modalidad 7 se puede utilizar en dispositivos y sistemas descritos en lo anterior.
i
MODALIDAD 8
Cada uno del método de codificación de película, el aparato de codificación de película, el método de decodificación de película y el aparato de decodificación de película en cada una de las modalidades típicamente se obtiene en forma de un circuito : integrado o un circuito integrado a gran escala (LSI, por s;us siglas en inglés) . Como un ejemplo del LSI, la figura 28 ilustra la configuración del
LSI ex500 que está constituido en un chip. El LSI ex500 incluye los elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508 y ex509 que se describirán posteriormente y los elementos están conectados 'entre sí a través de un enlace común ex5l0. La unidad de circuito de suministro de energía ex505 se activa al suministrar a cada uno de los elementos con energía cuando la , unidad de circuito de suministro de energía ex505 se enciende.
i
Por ejemplo, cuando se realiza la codificación, el
?
LSI ex500 recibe una señal de AV de un micrófono exll7, una cámara exll3 y otros a través de ¡un IO ex509 AV bajo el control de la unidad de control ex501 que incluye una CPU ex502, un controlador de memoria ex503, un controlador de corriente ex504 y una unidad de control de frecuencia de activación ex512. La señal AV recibida se almacena temporalmente en una memoria externa ex511 tal como una SDRAM. Bajo el control de la unidad de control ex501, los
!
i
i
datos almacenados se segmentan en porciones de datos de acuerdo con la cantidad de cálculo y velocidad para ser transmitidos a una unidad de procesamiento de señal ex507. Después, la unidad de procesamiento de señal ex507 codifica una señal de audio y/o una señal de video. Aqui, la codificación de la señal de video es la codificación descrita en cada una de las modalidades. Además, la unidad de procesamiento de señal ex507 algunas veces multiplexa los
I
datos de audio codificados y los datos de video codificados y una corriente 10 ex506 proporciona los datos multiplexados al exterior. Los datos multiplexados proporcionados se transmiten a la estación base exl07' o se escriben en el medio
I
de grabación ex215. Cuando los ¡con untos de datos son multiplexados, los conjuntos de datos deben ser almacenados temporalmente en la memoria intermedia ex508 de manera que los conjuntos de datos estén sincronizados entre sí.
i
Aunque la memoria ex511 es un elemento fuera de LSI ex500, se puede incluir LSI ex500.' La memoria ex508 no se i
limita a una memoria intermedia', sino que puede estar constituida de varias memorias intermedias. Además, el LSI ex500 se puede constituir en un chip o una pluralidad de chips . i
Además, aunque la unidad jde control ex501 incluye la CPU ex502, el controlador de memoria ex503, el controlador de corriente ex504, la unidad de control de frecuencia de I
activación ex512, la unidad ex501 de configuración de control no se limita a estas. Por ejemplo, ¡ la unidad de procesamiento
¡
de señal ex507 puede incluir además una CPU. La inclusión de otras CPU en la unidad de procesamiento de señal ex507 puede mejorar la velocidad de procesamiento. Además, como otro ejemplo, la CPU ex502 puede servir como o ser parte de una unidad de procesamiento de señal ex507 y, por ejemplo, puede incluir una unidad de procesamiento de señal de audio. En tal caso, la unidad de control ex501 incluye la unidad de procesamiento de señal ex507 o la CPU ex502 incluyen la parte de la unidad de procesamiento de señal ex507.
El nombre utilizado aquí LSI, pero también puede
i
denominarse IC, sistema LSI, super LSI o ultra LSI, dependiendo del grado de integración.
i
Además, las maneras de obtener integración no se limitan a LSI y también se puede obtener la integración
i
mediante un circuito especial o un procesador de propósito
i
general y así sucesivamente. El arreglo de compuerta
i
programable de campo (FPGA, por sus'¡ siglas en inglés) que se
i
puede programar después de fabricar los LSI o un procesador reconfigurable que permita la recon'figuración de la conexión de configuración de un LSI se utilizar para el mismo propósito.
En el futuro, con el avance en la tecnología de semiconductores, una tecnología completamente nueva puede
¡
!
sustituir a los LSI. Los bloques funcionales se pueden integrar utilizando esta tecnología. La posibilidad es que la presente invención se aplique a biotecnología.
I
MODALIDAD ¡ 9
Cuando los datos de, video se decodifican en el método de codificación de o por el aparato de codificación de película en cada una de las modalidades, en comparación a cuando los datos de video que
i
I
se conforman en un estándar convencional tal como MPEG-2, MPEG-4 AVC y VC-1 se incrementa la probabilidad de cantidad de cómputo. De esta manera, 'el LSI ex500 necesita
í
establecerse a una frecuencia de a'ctivación mayor que la de
I
la CPU ex502 para ser utilizada cuándo los datos de video en
I
conformidad con el estándar convencional se decodifican.
i
No obstante, cuando la frecuencia de activación que se
I
establece es mayor, existe un probliema de que se incremente
i
el consumo de energía. ;
Con el fin de resolver eí problema, el aparato de decodificación de película tal como| la televisión ex300 y el LSI ex500 se configura para estándar se conforman los datos de video frecuencias
de activación de acuerdo con el estándar determinado.
La figura 29 ilustra una configuración ex800 en la modalidad
i
9. Una unidad de cambio de frecuencia de activación ex803 establece una frecuencia de activación a una frecuencia de activación mayor cuando los datos de video son generados por el método de codificación de película o el aparato de codificación de película descrito en cada una de las modalidades. Después, la unidad de cambio de frecuencia de activación ex803 instruye a una unidad de procesamiento de decodificación ex801 que ejecute el método de decodificación de película descrito en cada una de las modalidades para decodificar los datos de video. Cuando los datos de video se adaptan al estándar convencional,' la unidad de cambio de frecuencia de activación ex803 establece una frecuencia de activación a una frecuencia de activación menor que la de los
I
datos de video generados por el método de codificación de película o el aparato de codificación de película descrito en cada una de las modalidades. Después, la unidad de cambio de frecuencia de activación ex803 instruye a la unidad de procesamiento de decodificación ex802 que se adapta al estándar convencional para decodificar los datos de video.
De manera más específica1, la unidad de cambio de
¡
frecuencia de activación ex803 incluye la CPU ex502 y la unidad ex582 de control de frecuencia de activación en la figura 28. Aquí, cada una de la unidad de procesamiento de decodificación ex802 que ejecuta el1 método de decodificación de video descrita en cada una de las modalidades y la unidad i
de ex802 de procesamiento de decodificación que se conforma
i
al estándar convencional que corresponde a la unidad de procesamiento de señal ex507 en la figura 28. La CPU ex502 determina a cual estándar se conforman los datos de video . Después, la unidad de control dé frecuencia de activación ex512 determina una frecuencia de ! activación en base en una señal desde la CPU ex502. Además, jla unidad de procesamiento de señal ex507 decodifica los datos de video en base en una señal de la CPU ex502. Por ejemplo, la información de identificación descrita en la modalidad 7 probablemente se utiliza para identificación de datqs de video. La información de identificación no se limita a la descrita en la modalidad 7 sino que puede ser cualquier información en la medida en que la información indique a cual 'estándar se conforman los datos de video. Por ejemplo, se puede determinar a cuales
I
datos de video estándar se conforman en base en una señal
i
externa para determinar que los datos de video se utilizan i
para una televisión o un disco, etc., la determinación se
I
puede realizar en base en la señal externa. Además, la CPU ex502 selecciona una frecuencia de! activación en base, por ejemplo, en una tabla de búsqueda la cual los estándares de los datos de video se asocian ¡con las frecuencias de i
activación como se muestra en la figura 31. La frecuencia de activación se puede seleccionar al almacenar la tabla de búsqueda en la memoria intermedia ex508 y una memoria interna de un LSI y con referencia a la tabla de búsqueda por la CPU i
ex502. ;
I
i
La figura 30 ilustra etapas para ejecutar un método en la modalidad 9. En primer lugar, en la etapa exS200, la i
unidad de procesamiento de señal ex507 obtiene información de identificación a partir de los datos multiplexados . Después, en la etapa exS201 la CPU ex502 determina si los datos de video se generan o no en base en la información de identificación por el método de codificación y el aparato de codificación descrito en i
cada una de las modalidades. Cuando los datos de video se i
generan por el método de codificación y el aparato de codificación descrito en cada una ¡de las modalidades, en la i
etapa exS202 la CPU ex502 transmite una señal para establecer la frecuencia de activación a una frecuencia de activación mayor a la unidad de control de frecuencia de activación ex512. Después,
I
la unidad de control de frecuencia de activación ex512 establece i
la frecuencia de activación a una1 frecuencia de activación mayor. Por otra parte, cuando la información de identificación indica que los datos de video se conforman al estándar convencional, tal como MPEG-2, MPEG-'4 AVC y VC-1, en la etapa exS203 la CPU ex502 transmite una 1 señal para establecer la frecuencia de activación a una frecuencia de activación menor i
que la unidad de control de frecuencia de activación ex512. Después, la unidad de control de frequencia de activación ex512 establece la frecuencia de activación a la frecuencia de activación menor que en el caso en dónde los datos de video se generan por el método de codificación y el aparato de
?
?
codificación descrito en cada modalidad.
Además, junto con el cambio de las frecuencias de activación, el efecto de conservación de energía se puede mejorar al cambiar el voltaje que se va a aplicar al LSI ex500 o a un aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia de activación se establece menor, el voltaje que se va a aplicar al LSI ex500 o al aparato que incluye al LSI ex500 probablemente se establezca en un vpltaje menor que en el caso en donde la frecuencia de activación! se establece mayor.
Además, cuando la cantidad de cálculo para decodificar es más grande, la frecuencia de activación se puede i
establecer mayor, y cuando la cantidad de cálculo para decodificación es menor, la frecuencia de activación se puede establecer menor como el método para ajustar la frecuencia de activación. De esta manera, el método de ajuste no se limita a
!
los descritos en lo anterior. Por ejemplo, cuando la cantidad de cálculo para decodificación de datos 'de video en conformidad con MPEG-4 AVC es mayor que la cantidad de cálculo para decodificación de datos de video generados por el método de codificación de película y el aparato de codificación de película descrito en cada una de las ¡ modalidades , la frecuencia de activación probablemente se establece en orden inverso al ajuste descrito antes. ¡
Además, el método para ajustar la frecuencia de activación no se limita al método para ajustar una menor frecuencia de activación. Por ejemplo, cuando la información de identificación indica que los datos) de video se generan por el método de codificación de película y el aparato de codificación de película descrito en cada una dei las modalidades, el voltaje que se va a aplicar al LSI ex500 o el aparato que incluye el LSI i
ex500 probablemente se establezca mayor. Cuando la información de identificación indica que los datos de video se conforman con i
el estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, el voltaje que se va a aplicar al LSI ex500 o al aparato que i
incluye al LSI ex500 probablemente', se establezca menor. Como otro ejemplo, cuando la información de identificación indica que los datos de video se generan por método de codificación de
película y el aparato de codificaci'ón de película descrito en cada una de las modalidades, la activación de la CPU ex502
I
probablemente no tenga que ser suspendida. Cuando la información de identificación indica que los datos de video se conforman al estándar convencional tal como MPEG-4 AVC y VC-1, la
activación de la CPU ex502 probablemente se suspenda en un
I
momento dado debido a que la CPU I ex502 tiene capacidad de procesamiento adicional. Incluso cuando la información de identificación indica que los datos ke video se generan por el método de codificación de película y Sel aparato de codificación de película descrito en cada una de modalidades, en el caso
en donde la CPU ex502 pueda tener ¡un retraso de tiempo, la
I
activación de la CPU ex502 probablemente se suspenda en un i
momento dado. En tal caso, el tiempo de suspensión probablemente se establece más corto que en el caso en donde cuando la información de identificación indica que los datos de video se conforman al estándar convencional tal como MPEG- 2, MPEG-4 AVC y
I VC-1.
En consecuencia, el efecto de conservación de energía se puede mejorar al cambiar entre frecuencias de activación de acuerdo con el estándar al cual se conforman los datos de video. Además, cuando el LSI ex500 o el ¡aparato que incluye al LSI ex500 es impulsado utilizando una batería, la duración de la batería se puede extender con el ( efecto de conservación de energía.
MODALIDAD
Existen casos en donde una pluralidad de datos de video que se conforman a un estándar ¡diferente se proporcionan a los dispositivos y sistemas tales como una televisión y un teléfono móvil. Con el fin de habilitar la decodificación de la pluralidad de datos de video que se jconforman a los estándares diferentes, la unidad de de procesamiento de señal ex507 del LSI i
I
ex500 necesita conformarse a los ¡diferentes estándares. No obstante, los problemas de incremento en la escala del circuito del LSI ex500 pueden aumentar y los costos se pueden incrementar con el uso individual de unidades iex507 de procesamiento de señal que se conformen a los estándares respectivos .
Con el fin de resolver el problema, lo que se concibe es una configuración en la cual lá unidad de procesamiento de decodificación para implementar el método de decodificación de película descrito en cada una de las modalidades y la unidad de procesamiento de decodificación que se conforma al estándar
I
convencional tal como MPEG-2, MPEG-4 AVC y VC-1 son compartidos parcialmente. En la figura 32A, ex900 muestra un ejemplo de configuración. Por ejemplo, el método de decodificación de película descrito en cada una de las modalidades y el método de decodificación de película que se conforma a MPEG-4 AVC tienen, parcialmente en común, los detalles de procesamiento tal como codificación de entropía, cuantificación inversa, filtrado de desbloqueo y predicción de movimiento compensado. Los detalles i
de procesamiento que se pueden compartir probablemente incluyen i
el uso de una unidad de procesamiento de decodificación que se i
conforma a MPEG-4 AVC ex902. En ¡contraste, una unidad de i
procesamiento de decodificación dedicado ex901 probablemente se utilice para otro procesamiento '< único para la presente
I
i
invención. Dado que la presente invención está caracterizada por i
compensación de movimiento en particular, por ejemplo, la unidad de procesamiento de decodificación ¡dedicado ex901 se utiliza para la compensación de movimiento. De otra manera, la unidad de procesamiento de decodificación probablemente es compartida para i
uno de codificación de entropía,j cuantificación inversa, i
filtrado de desbloqueo y cuantificación inversa o la totalidad de los procesamientos . La unidad de procesamiento de decodificación para implementar el 1 método de decodificación de película descrito en cada una dé las modalidades se puede compartir para el procesamiento que 'se va a compartir y se puede utilizar una unidad de procesamiento de decodificación dedicada para procesamiento único al de MPEG-'4 AVC
Además, en la figura 32B exlOOO muestra otro ejempl en donde se comparte parcialmente el' procesamiento. Este ejempl
I
utiliza una configuración que ¡ incluye una unidad de procesamiento de decodificación dedicado exlOOl que soporta el procesamiento único a la presentej invención, una unidad de procesamiento de decodificación exl002 dedicado que soporta el procesamiento único a otro estándar convencional y una unidad de
i
procesamiento exl003 de decodificación que soporta el
i
procesamiento que va a ser compartido entre el método de
i
decodificación de película en la presente invención y el método
I
de decodificación de película convencional. Aquí, las unidades
i
de procesamiento de decodificación dedicadas exlOOl y exl002 no necesariamente están especializadas para el procesamiento de la
i
presente invención y el procesamiento; del estándar convencional,
i
respectivamente, y pueden ser aquellas capaces de implementar procesamiento general. Además, la configuración de la modalidad
I
10 se puede implementar por el LSI ex500.
De esta manera, al reducir] la escala del circuito de un LS y al reducir el costo son posibles al compartir la unidad de procesamiento de decodificación para el procesamiento que se va a compartir entre el método de decodificación de película en la presente invención y el método de decodificación de película en conformidad con el estándar convencional.
i
APLICABILIDAD INDUSTRIAL
i
El método de codificación de imagen y el método de i
decodificación de imagen de acuerdo con la presente invención i
son aplicables, por ejemplo, para ¡televisiones , grabadoras de video digital, sistemas de navegación en vehículos, teléfonos celulares, cámaras digitales y cámaras de video digital.
LISTA DE NUMEROS DE REFERENCIA
i
100, 300 Aparato de codificación de imagen
101 Unidad de sustracción
102 Unidad de transformación ortogonal
103 Unidad de cuantificación
104 Unidad de codificación de longitud variable
i
105, 205 Unidad de cuantificación inversa
106, 206 Unidad de transformación ortogonal inversa
107, 207 Unidad de adición!
108, 208 Memoria de bloque!
i
109, 209 Memoria de marco ¡
110, 210 Unidad intrapredicción
i
111, 211 Unidad interpredicción
112, 212 Unidad de conmutadion
113 Unidad de determinación de tipo de imagen
114, 214 Unidad de control interpredicción
115, 215 Unidad de manejo de lista de imagen de
¡
referencia j
i
116, 216 Unidad de determinación de adición
200, 400 Aparato de de imagen
204 Unidad de decodificación de longitud variable
301, 401, 501 Unidad de adición
302, 402, 502 Unidad de selección
I
303, 503 Unidad de selección
I
403, 504 Unidad de decodificación
500 Aparato de codificación y de decodificación de imagen j
el la la
I
Claims (19)
1. Un método de codificación de imagen para la codificación de una imagen actual por bloque con predicción utilizando uno o ambos de una primera lista de imagen de referencia y una segunda lista ¡de imagen de referencia, caracterizado porque comprende: ! agregar, a una lista de candidatos, un primer I vector de movimiento adyacente cómo un candidato para un i vector de movimiento predicho para ser utilizado para i codificar un vector de movimiento actual, el primer vector de i movimiento adyacente es un vector de movimiento de un bloque adyacente a un bloque actual incluido en la imagen actual, y el vector de movimiento actual es un vector de movimiento del i bloque actual; ¡ seleccionar el vector de¡ movimiento predicho para i ser utilizado para codificar el vector de movimiento actual, a partir de la lista de candidatos que incluye el primer vector de movimiento adyacente; y ¡ codificar el vector de movimiento actual utilizando í el vector de movimiento predicho seleccionado, en donde la suma, el primer vector de movimiento adyacente se suma a la lista de candidatos para el vector de movimiento actual, el primer vector de movimiento adyacente indica una posición en una primera imagen de referencia incluida en la primera lista de imagen de referencia, y el I vector de movimiento actual indica una posición en una segunda imagen de referencia incluida en la segunda lista de I imagen de referencia. j
2. El método de codificación de imagen de conformidad con la reivindicación !l, caracterizado porque en la suma se agrega adicionalmente un segundo vector de movimiento adyacente, el segundo vector de movimiento Í adyacente es un vector de movimiento del bloque adyacente e indica una posición en una tercera imagen de referencia i incluida en la segunda lista de imagen de referencia.
3. El método de codificación de imagen de conformidad con la reivindicación 2, caracterizado porque en I la suma : [ i se determina si la segunda imagen de referencia es idéntica o no a la tercera imagen de referencia; se suma el segundo vector de movimiento adyacente a i la lista de candidatos cuando se i determina que la segunda imagen de referencia es idénticaj a la tercera imagen de referencia; ! i se determina si la segunda imagen de referencia es I idéntica o no a la primera imagen de referencia; y se suma el primer vector de movimiento adyacente a la lista de candidatos cuando se determina que la segunda imagen de referencia es idéntica a la primera imagen de I referencia. j
4. El método de co'dificación de imagen de i conformidad con la reivindicación j 3 , caracterizado porque en la suma: ' I se determina si la segunda imagen de referencia es idéntica o no a la primera imagen de referencia cuando se determina que la segunda imagen dé referencia no es idéntica a la tercera imagen de referencia; 'y el primer vector de movimiento adyacente se suma a la lista de candidatos cuando sej determina que la segunda imagen de referencia no es idéntijca a la tercera imagen de referencia y que la segunda imagen de referencia es idéntica a la primera imagen de referencia. ¡ i
5. El método de codificación de imagen de i conformidad con una de las reivindicaciones 3 y 4, ¡ caracterizado porque en la suma: ¡ se determina si la segunda imagen de referencia es idéntica o no a la tercera imagen de referencia al determinar si el orden de presentación de la segunda imagen de ¡ referencia identificada por la segunda lista de imagen de referencia y una segunda clasif cación de referencia es idéntica o no a un orden de presentación de la tercera imagen de referencia identificada por la segunda lista de imagen de í referencia y una tercera clasificación de referencia; y se determina si la segunda imagen de referencia es i idéntica o no a la primera imagen ¡de referencia al determinar si el orden de presentación de la segunda imagen de I referencia identificada por la segunda lista de imagen de referencia y la segunda clasificación de referencia es idéntica o no a un orden de presentación de la primera imagen de referencia identificada por la 'primera lista de imagen de referencia y una primera clasificación de referencia. i
6. El método de codificación de imagen de conformidad con una de las reivindicaciones 3 a 5, I caracterizado porque en la suma, un vector de movimiento que i tenga una magnitud de 0 se suma 'como el candidato para el vector de movimiento predicho, cuando se determina que la i segunda imagen de referencia no jes idéntica a la tercera I imagen de referencia y que la segunda imagen de referencia no i es idéntica a la primera imagen de referencia.
7. El método de codificación de imagen de i I conformidad con una de las reivindicaciones 1 a 6, i I caracterizado porque en la suma, una pluralidad de valores de clasificación y una pluralidad de Candidatos para el vector I de movimiento predicho se suman a la lista de candidatos de i manera que los valores de clasificación están en una correspondencia uno a uno con los ¡candidatos para el vector de movimiento predicho, ; I en la selección se ¡ selecciona un valor de I clasificación a partir de la lista de candidatos como el vector de movimiento predicho, y en la codificación el ivalor de la clasificación I seleccionado se codifica de manera: que el código del valor de i clasificación es más grande conforme aumenta el valor de clasificación. ! I
8. El método de codificación de imagen de conformidad con una de las reivindicaciones 1 a 7, ! caracterizado porque en ¡la suma, el primer vector i de movimiento adyacente del bloque adyacente se suma a la lista de candidatos, el bloque adyacente es uno de un bloque i adyacente a la izquierda, un bloque adyacente en la parte superior y un bloque adyacente ai la derecha superior con respecto al bloque actual. i
9. El método de decodificación de imagen de decodificación de una imagen actual' por bloque con predicción I utilizando uno o ambos de una primera lista de imagen de referencia y una segunda lista de imagen de referencia, i caracterizado porque comprende: sumar, a una lista de candidatos, un primer vector de movimiento adyacente como un candidato para un vector de movimiento predicho para ser utilizado para decodificar un vector de movimiento actual, el primer vector de movimiento adyacente es un vector de movimiento de un bloque adyacente a ¡ un bloque actual incluido en la imagen actual y el vector de movimiento actual es un vector i de movimiento del bloque actual; ! í seleccionar el vector de movimiento predicho para ser utilizado para decodificar i el vector de movimiento i actual, a partir de la lista de ! candidatos que incluye el primer vector de movimiento adyacente; y decodificar el vector de movimiento actual utilizando el vector de movimiento predicho; en donde, en la suma, el primer vector de I movimiento adyacente se suma a la lista de candidatos para el vector de movimiento actual, el primer vector de movimiento adyacente indica una posición en una primera imagen de referencia incluida en la priméra lista de imagen de i referencia y el vector de movimiento actual indica una I posición en una segunda imagen de 1 referencia incluida en la segunda lista de imagen de referencia. i
10. El método de decódificación de, imagen de conformidad con la reivindicación ?, caracterizado porque en la suma se suma adicionalmentej un segundo vector de i movimiento adyacente, el segundo vector de movimiento adyacente es un vector de movimiento del bloque adyacente e I indica una posición en una tercera imagen de referencia incluida en la segunda lista de imagen de referencia.
11. El método de decodificación de imagen de' conformidad con la reivindicación 10, caracterizado porque, en la suma : se determina si la segunda imagen de referencia es idéntica o no a la tercera imagen de referencia; i el segundo vector de movimiento adyacente se suma a la lista de candidatos cuando se determina que la segunda imagen de referencia es idénticá a la tercera imagen de referencia; 1 se determina si la segunda imagen de referencia es idéntica o no a la primera imagen de referencia; y el primer vector de movimiento adyacente se suma a la lista de candidatos cuando se1, determina que la segunda I imagen de referencia es idéntica1, a la primera imagen de referencia. 1
12. El método de decodificación de imagen de conformidad con la reivindicación 11, caracterizado porque, en la suma: i se determina si la segunda imagen de referencia es idéntica o no a la primera imagen de referencia cuando se determina que la segunda imagen de 'referencia no es idéntica a la tercera imagen de referencia; y i el primer vector de movimiento adyacente se suma a una lista de candidatos cuando se ¡ determina que la segunda imagen de referencia no es idéntica a la tercera imagen de referencia y que la segunda imagen de referencia es idéntica i i I I I I I i a la primera imagen de referencia.j
13. El método de decodificación de imagen de i conformidad con una de las reivindicaciones 11 y 12, caracterizado porque, enj la suma: se determina si la segunda imagen de referencia es i idéntica o no a la tercera imagen ¡de referencia al determinar si el orden de presentación de la segunda imagen de referencia identificada por la segunda lista de imagen de referencia y una segunda clasificación de referencia es idéntica o no a un orden de presentación de la tercera imagen i de referencia identificada por la ¡segunda lista de imagen de referencia y una tercera clasificación de referencia; y i se determina si la segunda imagen de referencia es idéntica o no a la primera imagen de referencia al determinar si el orden de presentación de la segunda imagen de referencia identificada por la segunda lista de imagen de referencia y la segunda clasif cación de referencia es idéntica o no a un orden de visualización de la primera imagen de referencia identificada! por la primera lista de imagen de referencia y una primera clasificación de i referencia. I I
14. El método de deco!dificación de imagen de i conformidad con una de las reivindicaciones 11 a 13, i caracterizado porque, en la suma, un vector de movimiento que tenga una magnitud de 0 se suma como el candidato para el vector de movimiento predicho, cuando se determina que la segunda imagen de referencia no es idéntica a la tercera imagen de referencia ¡y que la segunda imagen de referencia no es idéntica a la primera imagen de referencia.
15. El método de ficación de imagen de conformidad con una de las reivindicaciones 9 a 14, I¡ caracterizado porque en ¡la suma una pluralidad de valores de clasificación y una pluralidad de candidatos para el vector de movimiento predichos, se suman a la lista de i candidatos de manera que los valores de clasificación están en una correspondencia uno a uno con los candidatos para el vector de movimiento predicho, j en la decodificación decodifica un valor de clasificación, el valor de clasificación es codificado de i manera que un código del valor de clasificación es más grande i conforme aumenta el valor de clasificación, y en la selección, el vector de movimiento predicho que corresponde al valor de ficación decodificado se selecciona de la lista de candidatos.
16. El método de decodificación de imagen de conformidad · con una de las reivindicaciones 9 a 15, caracterizado porque en ija suma, el primer vector I de movimiento adyacente del bloque adyacente se suma a la lista de candidatos, el bloque adyacente es uno de un bloque adyacente a la izquierda, un bloque adyacente en la parte superior y un bloque adyacente la derecha superior con respecto al bloque actual.
17. El aparato de c ificación de imagen que codifica una imagen actual p bloque con predicción utilizando uno o ambos de una imera lista de imagen de referencia y una segunda lista de imagen de referencia, caracterizado porque comprende: j una unidad de adición configurada para sumar, a una lista de candidatos, un primer vector de movimiento adyacente i como un candidato para un vector de movimiento predicho para ser utilizado para codificar un vejctor de movimiento actual, i el primer vector de movimiento ádyacente es un vector de movimiento de un bloque adyacente á un bloque actual incluido I en la imagen actual y el vector de movimiento actual es un vector de movimiento del bloque actual; una unidad de selección configurada para seleccionar el vector de movimiento predicho para ser utilizado para codificar el vector de movimiento actual a partir de la lista de candidatos que incluye el primer vector de movimiento adyacente; y ' una unidad de codificación configurada para codificar el vector de movimiento d Ictual utilizando el vector de movimiento predicho seleccionado!, en donde la unidad de adición se puede configurar para sumar el primer vector de movimiento adyacente a la lista de candidatos para el vector de movimiento actual, el primer vector de movimiento adyacente indica una posición en i una primera imagen de referencia incluida en la primera lista de imagen de referencia y el vector de movimiento actual indica una posición en una segunda imagen de referencia j incluida en la segunda lista de imaigen de referencia. i
18. Un aparato de decodificación de imagen que I decodifica una imagen actual por bloque con predicción utilizando una o ambas de una primera lista de imagen de i referencia y una segunda lista de imagen de referencia, caracterizado porque comprende: ¡ una unidad de adición configurada para sumar, a una i lista de candidatos, un primer vector de movimiento adyacente como un candidato para un vector dé movimiento predicho para ser utilizado para decodificar un vector de movimiento actual, el primer vector de movimiento adyacente es un vector I de movimiento de un bloque adyacente a un bloque actual incluido en la imagen actual, yl el vector de movimiento I actual es un vector de movimiento del bloque actual; I i una unidad de selección configurada para seleccionar el vector de movimijento predicho paras ser utilizado para decodificar el vector de movimiento actual, a i partir de la lista de candidatos que incluye el primer vector I de movimiento adyacente,- y < una unidad de decodificación configurada para decodificar el vector de movimiento actual utilizando el vector de movimiento predicho seleccionado; en donde la unidad de adición está configurada para sumar el primer vector de movimiento adyacente a la lista de i candidatos para el vector de movimiento actual, el primer vector de movimiento adyacente indica una posición en una i primera imagen de referencia incluida en la primera lista de i imagen de referencia y el vector de movimiento actual indica una posición en una segunda imagerí de referencia incluida en la segunda lista de imagen de referencia. i
19. Un aparato de codificación y decodificación de imagen que codifica una imagen 'actual por bloque y que decodifica una imagen actual por bloque, con predicción 1 utilizando uno o ambos de una primera lista de imagen de referencia y una segunda lista de imagen de referencia caracterizado porque comprende: ! una unidad de adición configurada para sumar, a una lista de candidatos, un primer vectior de movimiento adyacente como un candidato para un vector movimiento predicho para ser utilizado para codificación o decodificación de un vector i de movimiento actual, el primer vector de movimiento i adyacente es un vector de movimiento de un bloque adyacente a un bloque actual que va a ser procesado y que se incluye en i la imagen actual que va a ser codificada o decodificada, y el vector de movimiento actual es un', vector de movimiento del bloque actual; I una unidad de selección configurada para seleccionar el vector de movimiento predicho para ser utilizado para codificación o decodificación del vector de movimiento actual a partir de la lista de candidatos que incluye al primer vector de movimiento adyacente; una unidad de codificación configurada para codificar el vector de movimiento ¡actual utilizando el vector i de movimiento predicho seleccionado; y i una unidad de decodificación configurada para decodificar el vector de movimiento actual utilizando el vector de movimiento predicho seleccionado, en donde la unidad de adición está configurada para sumar el primer vector de movimiento adyacente a la lista de candidatos para el vector de movimiento actual, el primer vector de movimiento adyacente indica una posición en una primera imagen de referencia incluida en la primera lista de i imagen de referencia y el vector de movimiento actual indica i una posición en una segunda imagen de referencia incluida en la segunda lista de imagen de referencia.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201061427587P | 2010-12-28 | 2010-12-28 | |
| PCT/JP2011/007309 WO2012090491A1 (ja) | 2010-12-28 | 2011-12-27 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、および、画像符号化復号装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| MX2013000995A true MX2013000995A (es) | 2013-03-22 |
Family
ID=46316778
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| MX2013000995A MX2013000995A (es) | 2010-12-28 | 2011-12-27 | Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen, aparato de decodificacion de imagen y aparato de codificacion/decodificacion de imagen. |
Country Status (13)
| Country | Link |
|---|---|
| US (12) | US9049455B2 (es) |
| EP (2) | EP2661087B1 (es) |
| JP (2) | JP6008291B2 (es) |
| KR (1) | KR101790378B1 (es) |
| CN (2) | CN106878749B (es) |
| AU (2) | AU2011353405B2 (es) |
| BR (1) | BR112013002448B1 (es) |
| CA (1) | CA2805663C (es) |
| ES (2) | ES2637615T3 (es) |
| MX (1) | MX2013000995A (es) |
| PL (2) | PL3200463T3 (es) |
| SG (1) | SG187185A1 (es) |
| WO (1) | WO2012090491A1 (es) |
Families Citing this family (52)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20130128983A1 (en) * | 2010-12-27 | 2013-05-23 | Toshiyasu Sugio | Image coding method and image decoding method |
| US9049455B2 (en) | 2010-12-28 | 2015-06-02 | Panasonic Intellectual Property Corporation Of America | Image coding method of coding a current picture with prediction using one or both of a first reference picture list including a first current reference picture for a current block and a second reference picture list including a second current reference picture for the current block |
| US9635383B2 (en) * | 2011-01-07 | 2017-04-25 | Texas Instruments Incorporated | Method, system and computer program product for computing a motion vector |
| US20130322535A1 (en) * | 2011-02-21 | 2013-12-05 | Electronics And Telecommunications Research Institute | Method for encoding and decoding images using plurality of reference images and device using method |
| ES2685945T3 (es) | 2011-04-12 | 2018-10-15 | Sun Patent Trust | Procedimiento de codificación de video de movimiento, y aparato de codificación de video de movimiento |
| WO2012147344A1 (ja) | 2011-04-27 | 2012-11-01 | 株式会社Jvcケンウッド | 動画像復号装置、動画像復号方法、及び動画像復号プログラム |
| TWI526056B (zh) * | 2011-04-27 | 2016-03-11 | Jvc Kenwood Corp | A moving picture coding apparatus, a motion picture coding method, a motion picture coding program, a transmission apparatus, a transmission method, a transmission program, a video decoding apparatus, a video decoding method, a video decoding program, a reception device, a reception method, Receiving program |
| EP3614665B1 (en) | 2011-05-27 | 2022-03-23 | Sun Patent Trust | Apparatus, method and program for decoding moving pictures |
| US9485518B2 (en) | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
| ES2971526T3 (es) | 2011-05-31 | 2024-06-05 | Sun Patent Trust | Procedimiento de descodificación de vídeo, dispositivo de descodificación de vídeo |
| GB2491589B (en) * | 2011-06-06 | 2015-12-16 | Canon Kk | Method and device for encoding a sequence of images and method and device for decoding a sequence of image |
| CN108184124B (zh) * | 2011-06-28 | 2022-01-11 | Lg电子株式会社 | 设置运动矢量列表的方法 |
| CN106851269B (zh) | 2011-06-30 | 2019-11-15 | 太阳专利托管公司 | 图像解码方法及装置、图像编码方法及装置、编解码装置 |
| MX341415B (es) | 2011-08-03 | 2016-08-19 | Panasonic Ip Corp America | Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video. |
| JP6308495B2 (ja) | 2011-10-19 | 2018-04-11 | サン パテント トラスト | 画像復号方法、および、画像復号装置 |
| JP2013098933A (ja) * | 2011-11-04 | 2013-05-20 | Sony Corp | 画像処理装置および方法 |
| US10003810B2 (en) * | 2012-03-22 | 2018-06-19 | Mediatek Inc. | Method and apparatus of scalable video coding |
| TWI574553B (zh) | 2012-07-02 | 2017-03-11 | 三星電子股份有限公司 | 畫面間預測的運動向量預測方法與裝置 |
| US9325990B2 (en) * | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
| US9699450B2 (en) | 2012-10-04 | 2017-07-04 | Qualcomm Incorporated | Inter-view predicted motion vector for 3D video |
| CN102883163B (zh) | 2012-10-08 | 2014-05-28 | 华为技术有限公司 | 用于运动矢量预测的运动矢量列表建立的方法、装置 |
| CN102946536B (zh) * | 2012-10-09 | 2015-09-30 | 华为技术有限公司 | 候选矢量列表构建的方法及装置 |
| KR20160048025A (ko) * | 2013-01-07 | 2016-05-03 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
| US9628795B2 (en) * | 2013-07-17 | 2017-04-18 | Qualcomm Incorporated | Block identification using disparity vector in video coding |
| CN104079944B (zh) | 2014-06-30 | 2017-12-01 | 华为技术有限公司 | 视频编码的运动矢量列表构建方法和系统 |
| CN115134591B (zh) | 2015-06-05 | 2024-12-27 | 杜比实验室特许公司 | 图像编解码方法、比特流存储方法 |
| EP3410717A1 (en) * | 2017-05-31 | 2018-12-05 | Thomson Licensing | Methods and apparatus for candidate list pruning |
| US11394992B2 (en) * | 2018-03-14 | 2022-07-19 | Hfi Innovation Inc. | Methods and apparatuses of generating average candidates in video coding systems |
| CN110365987B (zh) * | 2018-04-09 | 2022-03-25 | 杭州海康威视数字技术股份有限公司 | 一种运动矢量确定方法、装置及其设备 |
| CN110662053B (zh) | 2018-06-29 | 2022-03-25 | 北京字节跳动网络技术有限公司 | 使用查找表的视频处理方法、装置和存储介质 |
| WO2020003280A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Which lut to be updated or no updating |
| CN110662054B (zh) | 2018-06-29 | 2023-01-06 | 北京字节跳动网络技术有限公司 | 用于视频处理的方法、装置、计算机可读存储介质 |
| KR20240005239A (ko) | 2018-06-29 | 2024-01-11 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut와 amvp 사이의 상호작용 |
| TWI728388B (zh) | 2018-06-29 | 2021-05-21 | 大陸商北京字節跳動網絡技術有限公司 | Lut中的運動候選的檢查順序 |
| CN110662052B (zh) | 2018-06-29 | 2022-07-08 | 北京字节跳动网络技术有限公司 | 更新查找表(lut)的条件 |
| GB2588531B (en) | 2018-06-29 | 2023-02-01 | Beijing Bytedance Network Tech Co Ltd | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
| SG11202012293RA (en) | 2018-06-29 | 2021-01-28 | Beijing Bytedance Network Technology Co Ltd | Update of look up table: fifo, constrained fifo |
| WO2020005045A1 (ko) * | 2018-06-30 | 2020-01-02 | 김기백 | 머지 모드 기반의 인터 예측 방법 및 장치 |
| CN110677661B (zh) | 2018-07-02 | 2022-06-21 | 北京字节跳动网络技术有限公司 | 用于视频处理的方法、装置和存储介质 |
| KR20250020698A (ko) | 2018-07-02 | 2025-02-11 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 모션 벡터 예측 방법 및 관련 장치 |
| CN112640459B (zh) | 2018-09-06 | 2023-07-28 | Lg电子株式会社 | 图像编码系统中基于使用合并候选列表的运动预测的图像解码方法和设备 |
| CN111064961B (zh) | 2018-09-12 | 2023-06-09 | 北京字节跳动网络技术有限公司 | 视频处理方法和装置 |
| CN117412038A (zh) | 2018-09-12 | 2024-01-16 | 华为技术有限公司 | 参考图像列表结构的候选指示 |
| KR20250026874A (ko) | 2018-12-29 | 2025-02-25 | 에스지 디제이아이 테크놀러지 코., 엘티디 | 비디오 처리 방법 및 기기 |
| KR102648159B1 (ko) | 2019-01-10 | 2024-03-18 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut 업데이트의 호출 |
| WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
| CN113302937B (zh) | 2019-01-16 | 2024-08-02 | 北京字节跳动网络技术有限公司 | 运动候选推导 |
| WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
| CN120915942A (zh) | 2019-06-24 | 2025-11-07 | 阿里巴巴集团控股有限公司 | 视频处理中的自适应分辨率改变 |
| CN115699766A (zh) * | 2020-05-21 | 2023-02-03 | 夏普株式会社 | 动态图像编码装置以及动态图像解码装置 |
| US12118120B2 (en) | 2021-05-17 | 2024-10-15 | Bank Of America Corporation | Prevention of unauthorized access to information |
| US11934554B2 (en) | 2021-05-17 | 2024-03-19 | Bank Of America Corporation | Information security by preventing unauthorized data access |
Family Cites Families (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6625211B1 (en) * | 1999-02-25 | 2003-09-23 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for transforming moving picture coding system |
| KR20060107863A (ko) | 2002-01-18 | 2006-10-16 | 가부시끼가이샤 도시바 | 동화상 부호화방법 및 장치와 동화상 복호화방법 및 장치 |
| US7321626B2 (en) * | 2002-03-08 | 2008-01-22 | Sharp Laboratories Of America, Inc. | System and method for predictive motion estimation using a global motion predictor |
| US20040146109A1 (en) | 2002-04-19 | 2004-07-29 | Satoshi Kondo | Method for calculation motion vector |
| CA2451568C (en) | 2002-04-19 | 2012-08-21 | Matsushita Electric Industrial Co. Ltd. | Motion vector calculation method |
| JP2004208258A (ja) * | 2002-04-19 | 2004-07-22 | Matsushita Electric Ind Co Ltd | 動きベクトル計算方法 |
| JP2004023458A (ja) | 2002-06-17 | 2004-01-22 | Toshiba Corp | 動画像符号化/復号化方法及び装置 |
| KR100865034B1 (ko) | 2002-07-18 | 2008-10-23 | 엘지전자 주식회사 | 모션 벡터 예측 방법 |
| US9426490B2 (en) * | 2002-11-01 | 2016-08-23 | Godo Kaisha Ip Bridge 1 | Moving picture encoding method and motion picture decoding method |
| US7400681B2 (en) | 2003-11-28 | 2008-07-15 | Scientific-Atlanta, Inc. | Low-complexity motion vector prediction for video codec with two lists of reference pictures |
| KR100631768B1 (ko) | 2004-04-14 | 2006-10-09 | 삼성전자주식회사 | 비디오 코딩에서 프레임간 예측방법 및 비디오 인코더와,비디오 디코딩방법 및 비디오 디코더 |
| JP4702943B2 (ja) | 2005-10-19 | 2011-06-15 | キヤノン株式会社 | 画像処理装置及びその方法 |
| CN101317463B (zh) | 2006-03-16 | 2012-10-17 | 华为技术有限公司 | 在编解码中的实现量化的方法和装置 |
| JP4822940B2 (ja) | 2006-06-02 | 2011-11-24 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
| JP4884290B2 (ja) | 2007-05-07 | 2012-02-29 | パナソニック株式会社 | 動画像復号化集積回路、動画像復号化方法、動画像復号化装置及び動画像復号化プログラム |
| JP4650461B2 (ja) * | 2007-07-13 | 2011-03-16 | ソニー株式会社 | 符号化装置、符号化方法、プログラム、及び記録媒体 |
| EP2318919B1 (en) * | 2008-08-19 | 2018-10-24 | ContentArmor | A propagation map for watermarking |
| JPWO2010035730A1 (ja) * | 2008-09-24 | 2012-02-23 | ソニー株式会社 | 画像処理装置および方法 |
| US20100166073A1 (en) | 2008-12-31 | 2010-07-01 | Advanced Micro Devices, Inc. | Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors |
| JP5169978B2 (ja) * | 2009-04-24 | 2013-03-27 | ソニー株式会社 | 画像処理装置および方法 |
| US9060176B2 (en) * | 2009-10-01 | 2015-06-16 | Ntt Docomo, Inc. | Motion vector prediction in video coding |
| CN105681810B (zh) | 2010-05-26 | 2018-11-06 | Lg电子株式会社 | 用于处理视频信号的方法和设备 |
| US9300970B2 (en) * | 2010-07-09 | 2016-03-29 | Samsung Electronics Co., Ltd. | Methods and apparatuses for encoding and decoding motion vector |
| US9124898B2 (en) * | 2010-07-12 | 2015-09-01 | Mediatek Inc. | Method and apparatus of temporal motion vector prediction |
| US9398308B2 (en) * | 2010-07-28 | 2016-07-19 | Qualcomm Incorporated | Coding motion prediction direction in video coding |
| US8824558B2 (en) | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
| US20130128983A1 (en) * | 2010-12-27 | 2013-05-23 | Toshiyasu Sugio | Image coding method and image decoding method |
| US9049455B2 (en) * | 2010-12-28 | 2015-06-02 | Panasonic Intellectual Property Corporation Of America | Image coding method of coding a current picture with prediction using one or both of a first reference picture list including a first current reference picture for a current block and a second reference picture list including a second current reference picture for the current block |
-
2011
- 2011-12-23 US US13/336,353 patent/US9049455B2/en active Active
- 2011-12-27 PL PL17157139T patent/PL3200463T3/pl unknown
- 2011-12-27 SG SG2013005574A patent/SG187185A1/en unknown
- 2011-12-27 CN CN201710014608.3A patent/CN106878749B/zh active Active
- 2011-12-27 CN CN201180035081.3A patent/CN103004205B/zh active Active
- 2011-12-27 EP EP11854143.2A patent/EP2661087B1/en active Active
- 2011-12-27 ES ES11854143.2T patent/ES2637615T3/es active Active
- 2011-12-27 MX MX2013000995A patent/MX2013000995A/es active IP Right Grant
- 2011-12-27 ES ES17157139T patent/ES2704960T3/es active Active
- 2011-12-27 PL PL11854143T patent/PL2661087T3/pl unknown
- 2011-12-27 AU AU2011353405A patent/AU2011353405B2/en active Active
- 2011-12-27 CA CA2805663A patent/CA2805663C/en active Active
- 2011-12-27 BR BR112013002448-8A patent/BR112013002448B1/pt active IP Right Grant
- 2011-12-27 WO PCT/JP2011/007309 patent/WO2012090491A1/ja not_active Ceased
- 2011-12-27 KR KR1020137001284A patent/KR101790378B1/ko active Active
- 2011-12-27 EP EP17157139.1A patent/EP3200463B1/en active Active
- 2011-12-27 JP JP2012550732A patent/JP6008291B2/ja active Active
-
2015
- 2015-04-24 US US14/695,246 patent/US9264726B2/en active Active
- 2015-12-21 US US14/976,238 patent/US9445105B2/en active Active
-
2016
- 2016-04-27 AU AU2016202666A patent/AU2016202666B2/en active Active
- 2016-08-12 US US15/235,337 patent/US9729877B2/en active Active
- 2016-09-02 JP JP2016172315A patent/JP6167409B2/ja active Active
-
2017
- 2017-06-01 US US15/611,002 patent/US9998736B2/en active Active
-
2018
- 2018-05-14 US US15/978,697 patent/US10638128B2/en active Active
- 2018-12-26 US US16/232,305 patent/US10574983B2/en active Active
-
2020
- 2020-01-15 US US16/743,042 patent/US10880545B2/en active Active
- 2020-11-23 US US17/101,022 patent/US11310493B2/en active Active
-
2022
- 2022-03-15 US US17/694,979 patent/US12022065B2/en active Active
-
2024
- 2024-04-30 US US18/650,538 patent/US12445605B2/en active Active
-
2025
- 2025-01-13 US US19/018,046 patent/US20250150582A1/en active Pending
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| AU2016202666B2 (en) | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus | |
| AU2012329550B2 (en) | Image encoding method, image decoding method, image encoding apparatus, and image decoding apparatus | |
| AU2011353415B2 (en) | Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus | |
| AU2012260302B2 (en) | Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus | |
| AU2012264031B2 (en) | Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device | |
| AU2012291454B2 (en) | Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus | |
| AU2012277160B2 (en) | Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device | |
| CN106878742B (zh) | 动态图像编解码装置 | |
| CN103688545B (zh) | 图像编码方法、图像解码方法、图像编码装置及图像解码装置 | |
| MX2013010231A (es) | Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento. | |
| MX2013009864A (es) | Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento. | |
| EP4468696A2 (en) | Method for coding video, method for decoding video, device for coding video, device for decoding video, and device for coding/decoding video | |
| MX2014003728A (es) | Metodo de codificacion de imagenes, aparato de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion/decodificacio n de imagenes. | |
| MX2013012124A (es) | Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video. | |
| MX2013013909A (es) | Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imágenes. | |
| MX2012012443A (es) | Modo de filtrado para intra-prediccion deducida de estadisticas de bloques circundantes. | |
| MX2013012132A (es) | Metodo de codificacion de imagen, aparato de codificacion de imagen, metodo de decodificacion de imagen, aparato de decodificacion de imagen y aparato de codificacion/decodificacion de imagen. | |
| MX2013013777A (es) | Metodo de codificacion de imagenes, aparato de codificacion de imagenes, metodo de decodificacion de imagenes y aparato de decodificacion de imagenes. | |
| MX2013001709A (es) | Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imágenes en movimiento, y aparato de codificacion y decodificacion de imagenes en movimiento. | |
| MX2013001652A (es) | Metodo de codificacion de imagen, metodo de decodificacion de imagen, metodo de manejo de memoria, aparato de codificacion de imagen, aparato de decodificacion de imagen, aparato de manejo de memoria, y aparato de codificacion y decodificacion de imagen. | |
| EP2822277A1 (en) | Image coding method, image decoding method, image coding device, image decoding device, and image coding-decoding device | |
| MX2013014738A (es) | Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes. | |
| MX2015000630A (es) | Metodo decodificador de imagen, metodo codificador de imagen, aparato decodificador de imagen, aparato codificador de imagen, y aparato codificador y decodificador de imagen. | |
| MX2013001659A (es) | Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen, y aparato de decodificacion de imagen. | |
| JPWO2012090495A1 (ja) | 画像符号化方法および画像復号方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FG | Grant or registration | ||
| GB | Transfer or rights | ||
| PD | Change of proprietorship |
Owner name: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AME |