MX2014008979A - Dispositivo de codificacion y metodo de codificacion, y dispositivo de codificacion y metodo de decodificacion. - Google Patents
Dispositivo de codificacion y metodo de codificacion, y dispositivo de codificacion y metodo de decodificacion.Info
- Publication number
- MX2014008979A MX2014008979A MX2014008979A MX2014008979A MX2014008979A MX 2014008979 A MX2014008979 A MX 2014008979A MX 2014008979 A MX2014008979 A MX 2014008979A MX 2014008979 A MX2014008979 A MX 2014008979A MX 2014008979 A MX2014008979 A MX 2014008979A
- Authority
- MX
- Mexico
- Prior art keywords
- unit
- depth image
- coding
- parameters
- section
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 122
- 230000008569 process Effects 0.000 claims description 96
- 238000012545 processing Methods 0.000 claims description 57
- 230000005540 biological transmission Effects 0.000 claims description 27
- 238000010586 diagram Methods 0.000 description 39
- 238000005516 engineering process Methods 0.000 description 31
- 238000004891 communication Methods 0.000 description 21
- 230000015654 memory Effects 0.000 description 21
- 230000015572 biosynthetic process Effects 0.000 description 17
- 238000003786 synthesis reaction Methods 0.000 description 16
- 238000012937 correction Methods 0.000 description 12
- 238000003702 image correction Methods 0.000 description 12
- 239000000284 extract Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 9
- 108091026890 Coding region Proteins 0.000 description 7
- 230000000717 retained effect Effects 0.000 description 6
- 230000003321 amplification Effects 0.000 description 4
- 238000003199 nucleic acid amplification method Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- NRNCYVBFPDDJNE-UHFFFAOYSA-N pemoline Chemical compound O1C(N)=NC(=O)C1C1=CC=CC=C1 NRNCYVBFPDDJNE-UHFFFAOYSA-N 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
La presente tecnología se refiere a un dispositivo de codificación y un método de codificación, y un dispositivo de decodificación y un método de decodificación, configurados para reducir la cantidad de codificación del flujo codificado, cuando la información relacionada con la imagen de profundidad se incluye en el flujo codificado. Una unidad de codificación del DPS establece la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad, como un DPS diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen. Una unidad de codificación de la sección codifica la imagen de profundidad para generar los datos codificados. Además, la unidad de codificación de la sección transmite el flujo codificado que incluye el DPS y los datos codificados. La presente tecnología puede ser aplicada a, por ejemplo, un dispositivo de codificación de imágenes de vistas múltiples.
Description
DISPOSITIVO DE CODIFICACIÓN Y MÉTODO DE CODIFICACIÓN, Y
DISPOSITIVO DE DECODIFICACIÓN Y MÉTODO DE DECODIFICACIÓN
CAMPO TÉCNICO
La presente tecnología se refiere a un dispositivo de codificación y un método de codificación, y un dispositivo de decodificación y un método de decodificación, y particularmente, a un dispositivo de codificación y un método de codificación, y un dispositivo de decodificación y un método de decodificación, configurados para reducir la cantidad de codificación de flujos codificados, cuando la información con relación a la profundidad de la imagen se incluye en los flujos codificados.
ANTECEDENTES DE LA INVENCIÓN
En los años recientes, las imágenes tridimensionales han atraído la atención. Como los esquemas para visualizar las imágenes tridimensionales, (llamados de aquí en adelante esquemas del tipo de los lentes) es común colocarse unos lentes que abren un obturador del ojo izquierdo al momento de la visualización de una imagen, entre las imágenes de 2 puntos de vista y abren el obturador del ojo derecho en el momento de la visualización de la otra imagen y visualizar imágenes de 2 puntos de vistas desplegadas de forma alternada.
Sin embargo, en tales esquemas con lentes, se requiere que los observadores compren lentes por separado de los
dispositivos de visualización de imágenes tridimensionales, reduciéndose por ello la disposición de los observadores a la compra. Ya que se requiere que los observadores se coloquen los lentes en el momento de la visualización, esto puede producir una sensación molesta para estos. Por consiguiente, ha aumentado la demanda por esquemas de visualización (llamados de aqui en adelante como esquemas sin lentes) para la visualización de imágenes tridimensionales sin clocarse lentes .
En tales esquemas sin lentes, se visualizan imágenes de puntos de vista, de 3 o más puntos de vista, de modo tal que los ángulos que pueden ser visualizados son diferentes para cada punto de vista, y por lo tanto, los observadores pueden visualizar las imágenes tridimensionales sin colocarse lentes, cuando solamente se visualizan solamente 2 imágenes de puntos de vista, con el ojo izquierdo y derecho, respectivamente.
Como los métodos para visualizar las imágenes tridimensionales en los esquemas sin lentes, se han ideado métodos para adquirir una imagen en color de un punto de vista predeterminado y una imagen de profundidad, que generan una imagen en color de un punto de vista, que incluye un punto de vista distinto al punto de vista predeterminad, con base en la imagen en color y la imagen de profundidad, y desplegar la imagen en color de vistas múltiples. Aqui, las vistas múltiples se refieren a 3 o más puntos de vista.
Como los métodos para codificar la imagen en color de vistas múltiples y la imagen de profundidad, se han sugerido métodos para codificar la imagen en color y la imagen de profundidad por separado (por ejemplo, véase la Literatura Relacionada con Patentes 1) .
LISTA DE CITAS
Literatura No Relacionada con Patentes
NPL 1: "Draft Cali for Proposals on 3D Video Coding Technology", INTERNATIONAL ORGANISATION FOR STANDARDISATION ORGANISATION INTERNATIONALE DE NORMALIZATON ISO/IEC JTC1/SC29/WG11 CODING OF MOVING PICTURES AND AUDIO, MPEG2010/N11679 Guangzhou, China, Octubre de unidad 2010 de predicción ínter
BREVE DESCRIPCIÓN DE LA INVENCIÓN
Problema Técnico
Sin embargo, cuando la información relacionada con la imagen de profundidad se incluye en un flujo codificado, no ha sido considerada una reducción en la cantidad de codificación del flujo codificado.
La presente tecnología se finalizó tomando en cuenta tales circunstancias y es una tecnología para reducir la cantidad de codificación del flujo codificado cuando la información relacionada con la imagen de profundidad de incluye en el flujo codificado.
Solución al Problema
De acuerdo con un primer aspecto de la presente tecnología, se proporciona un dispositivo de codificación que incluye: una unidad de establecimiento, que establece la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad, como un conjunto de parámetros distinto del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen; una unidad de codificación que codifica la imagen de profundidad para generar los datos codificados; una unidad de transmisión, que transmite un flujo codificado que incluye el conjunto de parámetros, el cual se determina por la unidad de determinación y los datos codificados, generados por la unidad de codificación.
Un método de codificación de acuerdo con el primer aspecto de la presente tecnología, corresponde al dispositivo de codificación de acuerdo con el primer aspecto de la presente tecnología.
De acuerdo con el primer aspecto de la presente tecnología, la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad, se determina como un conjunto de parámetros distinto del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen; la imagen de profundidad se codifica para generar los datos codificados; y se
transmite un flujo codificado que incluye el conjunto de parámetros y los datos codificados.
De acuerdo con una segundo aspecto de la presente tecnología, se proporciona un dispositivo de decodificación que incluye: una unidad de adquisición, que adquiere el conjunto de parámetros y los datos codificados de un flujo codificado que incluye el conjunto de parámetros en el cual se determina la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad y el cual es diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen y los datos codificados de la imagen de profundidad; una unidad de procesamiento de análisis sintáctico, que analiza sintácticamente la información de la imagen de profundidad del conjunto de parámetros adquirido por la unidad de adquisición; y una unidad de decodificación que decodifica los datos codificados adquiridos por la unidad de adquisición.
El método de decodificación de acuerdo con el segundo aspecto de la presente tecnología corresponde al dispositivo de decodificación de acuerdo con el segundo aspecto de la presente tecnología.
De acuerdo con el segundo aspecto de la presente tecnología, se adquiere el conjunto de parámetros y los datos codificados de un flujo codificado que incluye el conjunto de parámetros en el cual se determina la información relacionada
con la imagen de profundidad, y el cual es diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen y los datos codificados de la imagen de profundidad; la información de la imagen de profundidad se analiza sintácticamente a partir de conjunto de parámetros; y los datos codificados se decodifican.
El dispositivo de codificación de acuerdo con el primer aspecto y el dispositivo de decodificación de acuerdo con el segundo aspecto pueden ser materializados permitiendo que una computadora ejecute un programa.
Para materializar el dispositivo de codificación de acuerdo con el primer aspecto y el dispositivo de decodificación de acuerdo con el segundo aspecto, el programa, el cual puede ser ejecutado por la computadora, puede ser transmitido a través de un medio de transmisión o puede ser registrado en un medio de registro a ser proporcionado.
Efectos Ventajosos de la Invención
De acuerdo con el primer aspecto de la presente tecnología, es posible reducir la cantidad de codificación del flujo codificado, cuando se incluye en el flujo codificado la información relacionada con la imagen de profundidad.
De acuerdo con el segundo aspecto de la presente tecnología, es posible decodificar el flujo codificado para el cual se reduce la cantidad de codificación del flujo codificado, cuando se incluye en el flujo codificado la
información relacionada con la imagen de profundidad.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[Fig. 1] La Fig. 1 es un diagrama que ilustra la disparidad y la profundidad.
[Fig. 2] La Fig. 2 es un diagrama de bloques de un dispositivo de codificación de una modalidad a la cual se aplica la presente tecnología
[Fig. 3] La Fig. 3 es un diagrama de bloques que ilustra un ejemplo de la configuración de una unidad de codificación de imágenes en la Fig. 2.
[Fig. 4] La Fig. 4 es un diagrama que ilustra un ejemplo de la estructura de un flujo codificado.
[Fig. 5] La Fig. 5 es un diagrama que ilustra un ejemplo de la sintaxis de un DPS .
[Fig. 6] La Fig. 6 es un diagrama que ilustra un ejemplo de la sintaxis de un encabezamiento de sección.
[Fig. 7] La Fig. 7 es un diagrama de flujo que ilustra el proceso de codificación del dispositivo de codificación en la Fig. 2.
[Fig. 8] La Fig. 8 es un diagrama de flujo que ilustra los detalles del proceso de codificación de vistas múltiples en la Fig. 7.
[Fig. 9] La Fig. 9 es un diagrama de flujo que ilustra los detalles del proceso de generación del DPS de la Fig. 8.
[Fig. 10] La Fig. 10 es un diagrama de bloques que
ilustra un ejemplo de la configuración de un dispositivo de decodificación de una modalidad a la cual se aplica la presente tecnología.
[Fig. 11] La Fig. 11 es un diagrama de bloques que ilustra un ejemplo de la configuración de una unidad de decodificación de imágenes de vistas múltiples en la Fig. 10.
[Fig. 12] La Fig. 12 es un diagrama de flujo que ilustra el proceso de decodificación del dispositivo de decodificación en la Fig. 10.
[Fig. 13] La Fig. 13 es un diagrama de flujo que ilustra los detalles del proceso de decodificación de vistas múltiples en la Fig. 12.
[Fig. 14] La Fig. 14 es un diagrama de flujo que ilustra los detalles del proceso de generación en la Fig. 13.
[Fig. 15] La Fig. 15 es un diagrama que ilustra un ejemplo de la sintaxis de un SPS extendido.
[Fig. 16] La Fig. 16 es un diagrama que ilustra otro ejemplo de la sintaxis del SPS extendido.
[Fig. 17] La Fig. 17 es un diagrama que ilustra la definición de sección_capa extendida.
[Fig. 18] La Fig. 18 es un diagrama que ilustra un ejemplo de la sintaxis del sección_capa extendido.
[Fig. 19] La Fig. 19 es un diagrama que ilustra un ejemplo de la sintaxis del encabezamiento de sección extendido.
[Fig. 20] La Fig. 20 es un diagrama que ilustra otro ejemplo de la sintaxis del encabezamiento de sección extendido .
[Fig. 21] La Fig. 21 es un diagrama que ilustra un ejemplo de la sintaxis de una unidad de NAL.
[Fig. 22] La Fig. 22 es un diagrama que ilustra un ejemplo de la sintaxis de encabezamiento_capa .
[Fig. 23] La Fig. 23 es un diagrama que ilustra otro ejemplo de la estructura del flujo codificado.
[Fig. 24] La Fig. 24 es un diagrama que ilustra un ejemplo de la configuración de una computadora de una modalidad.
[Fig. 25] La Fig. 25 es un diagrama que ilustra un ejemplo de la configuración global de un aparato de televisión al cual se aplica la presente tecnología.
[Fig. 26] La Fig. 26 es un diagrama que ilustra un ejemplo de la configuración global de un teléfono portátil al cual se aplica la presente tecnología.
[Fig. 27] La Fig. 27 es un diagrama que ilustra un ejemplo de la configuración global de un aparato de registro-reproducción al cual se aplica la presente tecnología.
[Fig. 28] La Fig. 28 es un diagrama que ilustra un ejemplo de la configuración global de un aparato de formación de imágenes al cual se aplica la presente tecnología.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN Descripción de las Modalidades
Descripción de la Imagen de Profundidad (Imagen Relevante para la Disparidad) en la Presente Especificación
La Fig. 1 es un diagrama que ilustra la disparidad y la profundidad.
Como se ilustra en la Fig. 1, cuando se toman fotografías de la imagen en color de un objetivo M, por medio de una cámara el dispuesta en una posición Cl y una cámara c2 dispuesta en una posición C2, la profundidad Z del objetivo M, la cual es la distancia desde la cámara cl (cámara c2) y el objetivo en la dirección de la profundidad, se define por la Ecuación (a) siguiente.
Matemática 1
Z = (L/d) X f ... (a)
L es la distancia (llamada de aquí en adelante distancia intercámaras ) entre las posiciones Cl y C2 en la dirección horizontal. También, d es el valor obtenido al restar la distancia u2 de la posición del objetivo M en una imagen en color fotografiada por la cámara c2, en la dirección horizontal desde el centro de la imagen en color; de la distancia ul de la posición del sujeto M en una imagen en color fotografiada por la cámara cl, en la dirección horizontal desde el centro de la imagen en color, es decir, la disparidad. Además, f es la distancia focal de la cámara cl, y
se asume que la distancia focal de la cámara el es igual a la distancia focal de la cámara c2 en la Ecuación (a) .
Como se expresa en la Ecuación (a) , la disparidad d y la profundidad Z pueden ser convertidas de forma univoca. Por consiguiente, en la presente especificación, las imágenes que indica la disparidad d entre las imágenes en color de 2 puntos de vista, fotografiadas por las cámaras el y c2, y la imagen que indica la profundidad Z, se conocen como imágenes de profundidad.
Las imágenes de profundidad pueden ser imágenes que indican la disparidad d o la profundidad Z, y no la disparidad d o la profundidad Z en si, sino que un valor obtenido al normalizar la disparidad d, un valor obtenido al normalizar el reciproco 1/Z de la profundidad Z, o los similares puede ser usado como el valor de pixel de la imagen de profundidad.
El valor I obtenido al normalizar la disparidad d por 8 bitios (0 a unidad 255 de adición) puede ser obtenido mediante la Ecuación (b) siguiente. El número de bitios para la normalización de la disparidad d no se limita a 8 bitios, sino que pueden ser usados otros números de bitios, como por ejemplo 10 bitios o 12 bitios.
Matemática 2
En la Ecuación (b) , Dmax es el valor máximo de la disparidad d y Dmin es el valor mínimo de la disparidad d. el valor máximo Dmax y el valor mínimo Dmin puede ser establecidos en unidades de una pantalla o pueden ser establecidos en unidades de una pluralidad de pantallas.
El valor y obtenido al normalizar el reciproco 1/Z de la profundidad Z en 8 unidades (0 a 255) puede ser obtenido mediante la Ecuación (c) siguiente. El número de bitios para la normalización del reciproco 1/Z de la profundidad Z no se limita a 8 bitios, pero pueden ser usados otros números de bitios, como por ejemplo 10 bitios o 12 bitios.
Matemática 3
En la ecuación (c) , iej0s es el valor máximo de la profundidad Z y Zcerca es el valor mínimo de la profundidad Z. El valor máximo iej0s y el valor mínimo Zcerca pueden ser establecidos en unidades de una pantalla o pueden ser establecidos en unidades de una pluralidad de pantallas.
Por lo tanto, en la presente especificación, en consideración del hecho de que la disparidad d y la profundidad Z pueden ser convertidos de forma unívoca, una imagen para la cual se obtiene el valor de I al normalizar la
disparidad d, se establece como el valor de pixel y una imagen para la cual se obtiene el valor y al normalizar el reciproco 1/Z de la profundidad Z, se establece como un valor de pixel, se conocen comúnmente como imágenes de profundidad. Aquí, se asume que el formato de color de la imagen de profundidad es YUV420 o YUV400, pero pueden ser usados otros formatos de color .
Cuando se centra la atención en la información relacionada con el valor de I o el valor Y en si, en lugar del valor de pixel de las imágenes de profundidad, el valor de I o el valor de y se establecen como la información de profundidad (el valor relevante para la disparidad) . Además, el resultado obtenido al mapear el valor I y el valor y se conoce como mapa de profundidad.
Modalidad
Ejemplo de la Configuración del Dispositivo de Codificación de la modalidad
La Fig. 2 es un diagrama de bloques que ilustra un ejemplo de la configuración de un dispositivo de codificación de una modalidad a la cual se aplica la presente tecnología.
El dispositivo 50 de codificación de la Fig. 2 se configura para incluir una unidad 51 de captura de imágenes en color, de vistas múltiples, una unidad 52 de corrección de imágenes en color, de vistas múltiples, una unidad 53 de generación de imágenes de profundidad, de vistas múltiples,
una unidad 54 de generación de información de las imágenes de profundidad, una unidad 55 de codificación de imágenes de vistas múltiples. El dispositivo 50 de codificación transmite la información de las imágenes de profundidad (parámetros de codificación) la cual es la información relacionada con las imágenes de profundidad.
Específicamente, la unidad 51 de captura de imágenes en color, de vistas múltiples del dispositivo 50 de codificación captura imágenes en color con vistas múltiples y suministra las imágenes en color como imágenes en color de vistas múltiples a la unidad 52 de corrección de imágenes en color, de vistas múltiples. La unidad 51 de captura de imágenes en color, de vistas múltiples, genera parámetros extrínsecos, el valor máximo de la profundidad (valor máximo relevante para la disparidad) , y el valor mínimo de la profundidad (valor mínimo relevante para la disparidad) (los detalles de los cuales se describirán a continuación) de cada punto de vista) . La unidad 51 de captura de imágenes en color, de vistas múltiples, suministra los parámetros extrínsecos, el valor máximo de la profundidad, y el valor mínimo de la profundidad a la unidad 54 de generación de información de las imágenes de profundidad y suministra el valor máximo de la profundidad y el valor mínimo de la profundidad a la unidad 53 de generación de imágenes de profundidad, de vistas múltiples.
Los parámetros extrínsecos son los parámetros que definen
la posición de la unidad 11 de captura de imágenes en color, de vistas múltiples en la dirección horizontal. El valor máximo de la profundidad es el valor máximo iej0S de la profundidad Z cuando la imagen de profundidad generada por la unidad 53 de generación de imágenes de profundidad, de vistas múltiples es una imagen que indica la profundidad Z, y es el valor máximo Dmax de la disparidad d cuando la imagen de profundidad es una imagen que indica la disparidad d. el valor minimo de la profundidad es el valor mínimo Zcerca de la profundidad Z cuando la imagen de profundidad generada por la unidad 53 de generación de imágenes de profundidad, de vistas múltiples es una imagen que indica la profundidad Z, y es el valor mínimo Dmin de la disparidad d cuando la imagen de profundidad es una imagen que indica la disparidad d.
La unidad 52 de corrección de imágenes en color, de vistas múltiples lleva a cabo la corrección del color, la corrección de la luminancia, la corrección de la distorsión y las similares sobre la imagen en color de vistas múltiples, suministrada desde la unidad 51 de captura de imágenes en color, de vistas múltiples. Por lo tanto, la distancia focal de la unidad 51 de captura de imágenes en color, de vistas múltiples en la dirección horizontal (dirección X) en la imagen en color de vistas múltiples, después de la corrección, es común a todos los puntos de vista. La unidad 52 de corrección de imágenes en color, de vistas múltiples
suministra la imagen en color, de vistas múltiples, después de la corrección, como una imagen en color, corregida, de vistas múltiples, a la unidad 53 de generación de imágenes de profundidad, de vistas múltiples y la unidad 55 de codificación de imágenes de vistas múltiples.
La unidad 53 de generación de imágenes de profundidad, de vistas múltiples genera una imagen de profundidad de vistas múltiples a partir de la imagen en color, corregida, de vistas múltiples suministrada desde la unidad 52 de corrección de imágenes en color, de vistas múltiples, con base en el valor máximo de la profundidad y el valor mínimo de la profundidad, suministrados desde la unidad 51 de captura de imágenes en color, de vistas múltiples. Específicamente, la unidad 53 de generación de imágenes de profundidad, de vistas múltiples obtiene el valor relevante para la disparidad de cada pixel de la imagen en color, corregida, de vistas múltiples, para cada punto de vista de las vistas múltiples, y normaliza el valor relevante para la disparidad con base en el valor máximo de la profundidad y el valor mínimo de la profundidad. Entonces, la unidad 53 de generación de imágenes de profundidad, de vistas múltiples genera una imagen de profundidad para la cual, el valor relevante para la disparidad de cada pixel, normalizado para cada punto de vista y de las vistas múltiples, se establece como el valor de pixel de cada pixel de la imagen de profundidad.
La unidad 53 de generación de imágenes de profundidad, de vistas múltiples suministra la imagen de profundidad generada de las vistas múltiples, como una imagen de profundidad, de vistas múltiples, a la unidad 55 de codificación de imágenes de vistas múltiples.
La unidad 54 de generación de información de las imágenes de profundidad genera la información de la imagen de profundidad de cada punto de vista. Específicamente, la unidad 54 de generación de información de las imágenes de profundidad obtiene la distancia intercámaras de cada punto de vista con base en los parámetros extrínsecos de cada punto de vista, suministrados desde la unidad 51 de captura de imágenes en color, de vistas múltiples. La distancia intercámaras es la distancia entre la posición de la unidad 51 de captura de imágenes en color, de vistas múltiples en la dirección horizontal, en el momento de la captura de la imagen en color de cada punto de vista correspondiente a la imagen de profundidad, de vistas múltiples, y la posición de la unidad 51 de captura de imágenes en color, de vistas múltiples en la dirección horizontal, en el momento de la captura de la imagen en color que tiene la disparidad correspondiente a la imagen en color y la imagen de profundidad.
La unidad 54 de generación de información de las imágenes de profundidad establece, como la información de la imagen de profundidad de cada punto de vista, el valor máximo de la
profundidad y el valor mínimo de la profundidad de cada punto de vista de vista, de la unidad 51 de captura de imágenes en color, de vistas múltiples y la distancia intercámaras de cada punto de vista. La unidad 54 de generación de información de las imágenes de profundidad suministra la información de la imagen de profundidad de cada punto de vista a la unidad 55 de codificación de imágenes de vistas múltiples.
La unidad 55 de codificación de imágenes de vistas múltiples codifica la imagen en color, corregida, de vistas múltiples, de la unidad 52 de corrección de imágenes en color, de vistas múltiples y la imagen de profundidad, de vistas múltiples de la unidad 53 de generación de imágenes de profundidad, de vistas múltiples de acuerdo con un esquema que se adapta al esquema HEVC (Codificación de Video de Alta Eficiencia) . El esquema HEVC ha sido publicado el día 20 de mayo de 2011, y entró en vigor en agosto del 2011 como el anteproyecto en "WD3 : Working Draft t3 of High-Efficiency Video Coding", JCTVC. E603_d5 (versión 5) por Thomas Wiegand, Woo-jin Han, Benjamín Bross, Jens-Rainer Ohm, y Gary J. Sullivan.
La unidad 55 de codificación de imágenes de vistas múltiples lleva a cabo la codificación diferencial sobre la información de la imagen de profundidad de cada punto de vista suministrada desde la unidad 54 de generación de información de las imágenes de profundidad para cada punto de vista y
genera un DPS (Conjunto de Parámetros de Profundidad) (DRPS) o los similares, el cual es una unidad de NAL (Capa de Abstracción de Red) que incluye el resultado de la codificación diferencial. Entonces, la unidad 55 de codificación de imágenes de vistas múltiples transmite un flujo de bitios formado por la imagen en color, de vistas múltiples, codificada, y la imagen de vistas múltiples, el DPS y los similares, como el flujo de codificado (flujo de bitios codificado) .
Por lo tanto, la unidad 55 de codificación de imágenes de vistas múltiples puede reducir la cantidad de codificación de la información de la imagen de profundidad ya que la unidad 55 de codificación de imágenes de vistas múltiples lleva a cabo la codificación diferencial sobre la información de la imagen de profundidad y transmite la información de la imagen de profundidad codificada. Para suministrar una imagen tridimensional confortable, existe la probabilidad de que información de la imagen de profundidad no sea cambiada de forma considerable entre las imágenes. Por lo tanto, el hecho de que se lleve a cabo la codificación diferencial es eficiente en la reducción de la cantidad de codificación.
Ya que la unidad 55 de codificación de imágenes de vistas múltiples transmite la información de la imagen de profundidad incluida en el DPS, es posible evitar que la misma información de la imagen de profundidad sea transmitida de forma
redundante como en el caso en el cual se incluye la información de la imagen de profundidad en el encabezamiento de la sección a ser transmitido. Como resultado, es posible reducir adicionalmente la cantidad de codificación de la información de la imagen de profundidad.
Ejemplo de configuración de la Unidad de Codificación de Imágenes de Vistas Múltiples
La Fig. 3 es un diagrama de bloques que ilustra un ejemplo de la configuración de la unidad 55 de codificación de imágenes de vistas múltiples, en la Fig. 2.
La unidad 55 de codificación de imágenes de vistas múltiples, en la Fig. 3, se configura para incluir una unidad 61 de codificación del SPS, una unidad 62 de codificación del PPS, una unidad 63 de codificación del DPS, una unidad 64 de codificación del encabezamiento de la sección, una unidad 65 de codificación de la sección.
La unidad 61 de codificación del SPS de la unidad 55 de codificación de imágenes de vistas múltiples genera un SPS en unidades de secuencias y suministra el SPS a la unidad 62 de codificación del PPS. La unidad 62 de codificación del PPS genera un PPS en unidades de imágenes, agrega el PPS al SPS suministrado desde la unidad 61 de codificación del SPS, y suministra el PPS agregado a la unidad 64 de codificación del encabezamiento de la sección.
La unidad 63 de codificación del DPS lleva a cabo la
codificación diferencial sobre la información de la imagen de profundidad para cada sección de la imagen de profundidad de cada punto de vista, con base en la información de la imagen de profundidad de cada punto de vista, suministrada desde la unidad 54 de generación de información de las imágenes de profundidad de la Fig. 2. Específicamente, cuando el tipo de la sección objetivo del procesamiento es el tipo intra, la unidad 63 de codificación del DPS establece la información de la imagen de profundidad de esta sección como el resultado de la codificación diferencial, sin cambios. Por el contrario, cuando el tipo de la sección objetivo del procesamiento es el tipo intra, la unidad 63 de codificación del DPS establece la diferencia entre la información de la imagen de profundidad de esta sección y la información de la imagen de profundidad de la sección inmediatamente precedente de esta sección, como el resultado de la codificación diferencial.
La unidad 63 de codificación del DPS funciona como una unidad de determinación y determina el resultado de la codificación diferencial en el DPS cuando el DPS, que incluye el resultado de la codificación diferencial de la información de la imagen de profundidad no ha sido generado aun. La unidad 63 de codificación del DPS asigna al DPS un DPS_id (identificador del índice) el cual es un ID (número de identificación) que identifica de forma unívoca el DPS, y determina el DPS id en el DPS. Entonces, la unidad 63 de
codificación del DPS suministra a la unidad 64 de codificación del encabezamiento de la sección el DPS, en el cual se establece el resultado de la codificación diferencial de la información de la imagen de profundidad y el DPS_id.
Por el contrario, cuando el DPS que incluye el resultado de la codificación diferencial de la información de la imagen de profundidad ya ha sido generado, la unidad 63 de codificación del DPS suministra el DPS_id del DPS a la unidad 64 de codificación del encabezamiento de la sección.
La unidad 64 de codificación del encabezamiento de la sección funciona como una unidad de determinación y determina el DPS_id del DPS suministrado desde la unidad 63 de codificación del DPS o el DPS_id en el encabezamiento de la sección, de la sección de la imagen de profundidad del punto de vista correspondiente. La unidad 64 de codificación del encabezamiento de la sección genera el encabezamiento de la sección de la imagen en color, de vistas múltiples. La unidad 64 de codificación del encabezamiento de la sección agrega el DPS suministrado desde la unidad 63 de codificación del DPS y los encabezamientos de sección de la imágenes de profundidad de vistas múltiples y la imagen en color de vistas múltiples, al PPS al cual se agrega el SPS suministrado desde la unidad 62 de codificación del PPS, y suministra el PPS a la unidad 65 de codificación de la sección.
La unidad 65 de codificación de la sección funciona como
una unidad de codificación y codifica la imagen en color, corregida, de vistas múltiples de la unidad 52 de corrección de imágenes en color, de vistas múltiples y la imagen de profundidad, de vistas múltiples de la unidad 53 de generación de imágenes de profundidad, de vistas múltiples, de acuerdo con un esquema que se adapta al esquema de HEVC en unidades de secciones. En este momento, la unidad 65 de codificación de la sección usa la información de la imagen de profundidad, incluida en el DPS del DPS_id incluido en el encabezamiento de la sección suministrado desde la unidad 64 de codificación del encabezamiento de la sección.
La unidad 65 de codificación de la sección genera un flujo codificado al agregar los datos codificados en unidades de secciones, obtenidos como resultado de la codificación, al encabezamiento de la sección al cual se agrega el SPS, el PPS, y el DPS suministrados desde la unidad 64 de codificación del encabezamiento de la sección. La unidad 65 de codificación de la sección funciona como una unidad de transmisión y transmite el flujo codificado.
Ejemplo de la Estructura del Flujo Codificado
La Fig. 4 es un diagrama que ilustra un ejemplo de la estructura de un flujo codificado.
En la Fig. 4, para facilitar la descripción, solo se describen los datos codificados de la sección de la imagen de vistas múltiples. Sin embargo, en la práctica, los datos
codificados de la sección de la imagen en color, de vistas múltiples también se emplean en el flujo codiciado.
Como se ilustra en la Fig. 4, los datos codificados en unidades de secciones, a los cuales se agrega el SPS en unidades de secuencias, el PPS en unidades de imágenes, el DPS en unidades de secciones, y el encabezamiento de la sección, se despliegan secuencialmente en el flujo codificado.
En el ejemplo de la Fig. 4, el valor mínimo de la profundidad, el valor máximo de la profundidad, y la distancia intercámaras de la sección de tipo intra entre las secciones de la imagen correspondiente al PPS #0 son 10, 50 y 100, respectivamente. Por consiguiente el valor mínimo de la profundidad "10", el valor máximo de la profundidad "50", y la distancia intercámaras "100" en sí, se generan como el resultado de la codificación diferencial de la información de la imagen de profundidad de la sección.
Entonces, ya que el DPS que incluye el resultado de codificación diferencial no ha sido generado aun, el DPS que incluye el resultado de la codificación diferencial se establece en el flujo codificado y, por ejemplo, se asigna el valor de 0 como el DPS_id. Entonces, se incluye el valor de cero como el DPS_id en el encabezamiento de la sección.
En el ejemplo de la Fig. 4, el valor mínimo de la profundidad, el valor máximo de la profundidad, y la distancia intercámaras de la Ia sección de tipo ínter entre las
secciones de la imagen que corresponde al PPS #0 son 9, 48, y 105, respectivamente. Por consiguiente, la diferencia "-1" obtenida al sustraer el valor mínimo de la profundidad "10" de la sección de tipo intra inmediatamente precedente en la secuencia de codificación, del valor mínimo de la profundidad "9" de la sección, se genera como el resultado de la codificación diferencial de la información de la imagen de profundidad de la sección. Igualmente, la diferencia "-2" entre las distancias intercámaras se generan como el resultado de la codificación diferencial de la información de la imagen de profundidad.
Ya que el DPS que incluye el resultado de la codificación diferencial no ha sido generado aun, el DPS que incluye el resultado de la codificación diferencial se establece como el flujo codificado, y por ejemplo, se asigna el valor de 1 como el DPS_id. Entonces, se asigna el valor de 1 como el DPS_id en el encabezamiento de la sección.
En el ejemplo de la Fig. 4, el valor mínimo de la profundidad, el valor máximo de la profundidad, y la distancia intercámaras de la 2a sección intercámaras, entre las secciones de la imagen correspondiente al PPS #0 son 7, 47, y 11, respectivamente. Por consiguiente, la diferencia "-2" obtenida al sustraer el valor mínimo de la profundidad "9" de la Ia sección inmediatamente precedente en la secuencia de codificación, del valor mínimo de la profundidad "7" de la
sección, se genera como el resultado de la codificación diferencial de la información de la imagen de profundidad de la sección. Igualmente, la diferencia "-1" entre los valores máximos de la profundidad y la diferencia "5" entre las distancias intercámaras , se generan como los resultados de la codificación diferencial de la información de la imagen de profundidad.
Ya que el DPS que incluye el resultado de la codificación diferencia no ha sido generado aun, el DPS que incluye el resultado de la codificación diferencial se establece como el flujo codificado y, por ejemplo, se asigna el valor de 2 como el DPS_id. Entonces, el valor de 2 se incluye como el DPS_id en el encabezamiento de la sección.
En el ejemplo de la Fig. 4, los resultados de la codificación diferencial de la información de la imagen de profundidad de tres secciones de tipo ínter de la imagen correspondiente al PPS #1, el cual es el primer PPS, son iguales al resultado de la codificación diferencial de la información de la imagen de profundidad de la 2 a sección de tipo ínter, entre las secciones de la imagen correspondiente al PPS #0. Por consiguiente, el DPS no se establece para las tres secciones de tipo Ínter y se incluye el valor de 2 en el DPS_id en el encabezamiento de la sección de la sección.
Ejemplo de la Sintaxis del DPS
La Fig. 5 es un diagrama que ilustra un ejemplo de la
sintaxis del DPS.
Como se muestra en la 2a linea de la Fig. 5, el DPS_id (profundidad_parámetros_conjunto_id) asignado al DPS se incluye en el DPS. Como se ilustra en la 14a linea, el valor máximo de la profundidad y el valor mínimo de la profundidad (profundidad_rangos ) se incluyen en el DPS. Como se ilustra en la 17a línea, la distancia inter cámaras (vsp_param) se incluye en el DPS.
Ejemplo de la Sintaxis del Encabezamiento de la Sección La Fig. 6 es un diagrama que ilustra un ejemplo de la sintaxis del encabezamiento de la sección.
Como se muestra en la 3a a la 7a líneas de la Fig. 6, el tipo nal_unidad_tipo de la unidad de NAL de los datos codificados en unidades de secciones, a los cuales se agrega el encabezamiento de la sección es 21, que indica que la codificación se lleva a cabo de acuerdo con el esquema 3DVC, (codificación de video tridimensional) , es decir, el encabezamiento de la sección es el encabezamiento de la sección de una imagen de profundidad, y cuando el tipo sección_tipo de la sección es el tipo inter, el encabezamiento de la sección incluye una bandera que indica si se lleva a cabo la predicción ponderada sobre la imagen de profundidad.
Específicamente, cuando el tipo sección_tipo de la sección es P (sección_tipo == P) el encabezamiento de la sección incluye una bandera profundidad_ponderada_pred_bandera
que indica si se lleva a cabo la predicción ponderada en la dirección delantera o posterior. Por otro lado, cuando el tipo sección_tipo de la sección es B ( sección_tipo == B) , el encabezamiento de la sección incluye la bandera profundidad_ponderada_bipred_bandera que indica si se lleva a cabo la predicción ponderada en las direcciones frontal y trasera .
Como se muestra en la 8a a la 10a lineas, cuando se lleva a cabo la predicción ponderada, el encabezamiento de la sección incluye un DPS_id
(profundidad_parámetros_conj unto_id) . Específicamente, cuando el tipo sección_tipo de la secciones es P y la bandera profundidad_ponderada_pred_bandera es 1 o cuando el tipo sección_tipo de la sección es B y la bandera profundidad_ponderada_bipred_bandera es 1, se incluye el DPS_id (profundidad_parámetros_conj unto_id) .
Aunque no se ilustra, cuando el tipo nal_unidad_tipo de la unidad de NAL de los datos codificados de la sección es un valor de 21, el DPS_id se incluye a pesar del hecho de que el tipo sección_tipo de la sección es I.
La sintaxis de la Fig. 6 es igual a la sintaxis del encabezamiento de la sección existente, excepto por la descripción del caso en el cual, el tipo nal_unidad_tipo de la unidad de NAL en la 3a a la 10a línea es 21. Es decir, la información distinta a la bandera
profundidad_ponderada_pred_bandera o la bandera profundidad_ponderada_bipred_bandera, y el DPS_id en el encabezamiento de la sección de la imagen de profundidad, es igual a la información en el encabezamiento de la sección de la imagen de color. Por consiguiente, la compatibilidad con el flujo codificado existente puede ser mantenida completamente.
Ya que el encabezamiento de la sección incluye la bandera profundidad_ponderada_pred_bandera y la bandera profundidad_ponderada_bipred_bandera, la bandera profundidad_ponderada_pred_bandera o la bandera profundidad_ponderada_bipred_bandera pueden ser establecidas en las unidades de sección.
Descripción del Proceso del Dispositivo de Codificación La Fig. 7 es un diagrama de flujo que ilustra el proceso de codificación del dispositivo 50 de codificación en la Fig. 2.
En la etapa S10 de la Fig. 7, la unidad 51 de captura de imágenes en color, de vistas múltiples del dispositivo 50 de codificación captura una imagen en color de vistas múltiples y suministra la imagen en color de vistas múltiples como la imagen en color, de vistas múltiples, a la unidad 52 de corrección de imágenes en color, de vistas múltiples.
En la etapa Sil, la unidad 51 de captura de imágenes en color, de vistas múltiples genera los parámetros extrínsecos, el valor máximo de la profundidad, y el valor mínimo de la
profundidad de cada punto de vista. La unidad 51 de captura de imágenes en color, de vistas múltiples suministra los parámetros extrínsecos, el valor máximo de la profundidad, y el valor mínimo de la profundidad a la unidad 54 de generación de información de las imágenes de profundidad y suministra el valor máximo de la profundidad y el valor mínimo de la profundidad a la unidad 53 de generación de imágenes de profundidad, de vistas múltiples.
En la etapa S12, la unidad 52 de corrección de imágenes en color, de vistas múltiples lleva a cabo la corrección del color, la corrección de la luminancia, y la corrección de la distorsión, y los similares sobre la imagen en color, de vistas múltiples, suministrada desde la unidad 51 de captura de imágenes en color, de vistas múltiples. La unidad 52 de corrección de imágenes en color, de vistas múltiples suministra la imagen en color, de vistas múltiples, después de la corrección, como la imagen en color, de vistas múltiples, corregida, a la unidad 53 de generación de imágenes de profundidad, de vistas múltiples y la unidad 55 de codificación de imágenes de vistas múltiples.
En la etapa S13, la unidad 53 de generación de imágenes de profundidad, de vistas múltiples genera la imagen de profundidad de las vistas múltiples de la imagen en color, de vistas múltiples, corregida, suministrada desde la unidad 52 de corrección de imágenes en color, de vistas múltiples, con
base en el valor máximo de la profundidad y el valor mínimo de la profundidad, suministrada desde la unidad 51 de captura de imágenes en color, de vistas múltiples. Entonces, la unidad 53 de generación de imágenes de profundidad, de vistas múltiples suministra la imagen de profundidad generada de las vistas múltiples, como la imagen de profundidad de vistas múltiples, a la unidad 55 de codificación de imágenes de vistas múltiples.
En la etapa S14 , la unidad 54 de generación de información de las imágenes de profundidad genera la información de la imagen de profundidad de cada punto de vista y suministra la información de la imagen de profundidad de cada punto de vista, a la unidad 55 de codificación de imágenes de vistas múltiples.
En la etapa S15, la unidad 55 de codificación de imágenes de vistas múltiples lleva a cabo el proceso de codificación de vistas múltiples para codificar la imagen en color, de vistas múltiples, corregida y la imagen de profundidad de vistas múltiples, de acuerdo con un esquema que se adapta al esquema HEVC. Los detalles del proceso de codificación de vistas múltiples se describirán con referencia a la Fig. 8, a ser descrita a continuación.
En la etapa S16, la unidad 55 de codificación de imágenes de vistas múltiples trasmite el flujo codificado, generado como el resultado de la etapa S15 y se termina el proceso.
La Fig. 8 es un diagrama de flujo que ilustra los detalles del proceso de codificación de vistas múltiples de la etapa S15 de la Fig. 7.
En la etapa S31 de la Fig. 8, la unidad 61 de codificación del SPS (Fig. 3) de la unidad 55 de codificación de imágenes de vistas múltiples genera el SPS en unidades de secuencias y suministra el SPS a la unidad 62 de codificación del PPS.
En la etapa S32, la unidad 62 de codificación del PPS genera el PPS de las unidades de imágenes, agrega el PPS al SPS suministrado desde la unidad 61 de codificación del SPS, y suministra el SPS a la unidad 64 de codificación del encabezamiento de la sección. Los procesos posteriores de la etapa S33 a la etapa S37 se llevan a cabo en las unidades de sección de cada punto de vista.
En la etapa S33, la unidad 63 de codificación del DPS lleva a cabo el proceso de generación del DPS para generar el DPS de la sección de un punto de vista objetivo del procesamiento (conocido de aquí en adelante como la sección del punto de vista objetivo) . Los detalles del proceso de generación del DPS se describirán con referencia a la Fig. 9, a ser descrita a continuación.
En la etapa S34, la unidad 64 de codificación del encabezamiento de la sección genera el encabezamiento de sección de la imagen de profundidad de la sección del punto de
vista objetivo que incluye el DPS_id del DPS suministrado desde la unidad 63 de codificación del DPS o el DPS_id.
En la etapa S35, la unidad 64 de codificación del encabezamiento de la sección genera el encabezamiento de la sección de la imagen en color, corregida de la sección del puno de vista objetivo. Entonces, la unidad 64 de codificación del encabezamiento de la sección agrega además el DPS, la imagen de profundidad de vistas múltiples, y el encabezamiento de la sección de la imagen en color, de vistas múltiples, al PPS, al cual se agrega el SPS suministrado desde la unidad 62 de codificación del PPS y suministra el PPS a la unidad 65 de codificación de la sección.
En la etapa S36, la unidad 65 de codificación de la sección codifica la imagen de profundidad de la sección del punto de vista objetivo, suministrada desde la unidad 53 de generación de imágenes de profundidad, de vistas múltiples, con base en la información de la imagen de profundidad incluida en el DPS del DPS_id incluido en el encabezamiento de la sección de la imagen de profundidad de la sección del punto de vista objetivo, suministrada desde la unidad 64 de codificación del encabezamiento de la sección, de acuerdo con un esquema 3DVC que se adapta al esquema HEVC.
En la etapa S37, la unidad 65 de codificación de la sección codifica la imagen en color corregida, de la sección del punto de vista objetivo, suministrada desde la unidad 53
de generación de imágenes de profundidad, de vistas múltiples, de acuerdo con un esquema que se adapta al esquema HEVC. La unidad 65 de codificación de la sección genera el flujo codificado al agregar los datos codificados de las unidades de sección, obtenidos como los resultados de la codificación de la etapa S36 y la etapa S37, al encabezamiento de la sección al cual se agrega el SPS, el PPS, y el DPS, y el cual se suministra desde la unidad 64 de codificación del encabezamiento de la sección. Entonces, el proceso regresa a la etapa S15 de la Fig. 7 y procede a la etapa S16.
La Fig. 9 es un diagrama de flujo que ilustra los detalles del proceso de generación del DPS de la etapa S33 de la Fig. 8.
En la etapa S51 de la Fig. 9, la unidad 63 de codificación del DPS determina si el tipo de la sección del punto de vista objetivo es el tipo intra, cuando se determina, en la etapa S51 que el tipo de la sección del punto de vista objetivo es el tipo intra, el proceso procede a la etapa S52.
En la etapa S52, la unidad 63 de codificación del DPS determina si el DPS que incluye la información de la imagen de profundidad de la sección del punto de vista objetivo, suministrada desde la unidad 54 de generación de información de las imágenes de profundidad de la Fig. 2, ya se ha generado .
Cuando se determina, en la etapa S52, que el DPS no se ha
generado aun, la unidad 63 de codificación del DPS genera el DPS que incluye la información de la imagen de profundidad de la sección del punto de vista objetivo, como el resultado de la codificación diferencial, en la etapa S53, y el proceso procede a la etapa S57.
Por el contrario, cuando se determina, en la etapa S51, que el tipo de la sección del punto de vista objetivo no es el tipo intra, es decir, el tipo de la sección del punto de vista objetivo es el tipo ínter, el proceso procede a la etapa S54.
En la etapa S54, la unidad 63 de codificación del DPS lleva a cabo la codificación diferencial, al obtener, como el resultado de la codificación diferencial, la diferencia entre la información de la imagen de profundidad de la sección del punto de vista objetivo y la información de la imagen de profundidad de la sección del mismo punto de vista, inmediatamente precedente en la secuencia de codificación de la sección del punto de vista objetivo.
En la etapa S55, la unidad 63 de codificación del DPS determina si el DPS que incluye el resultado de la codificación diferencial, obtenido en la etapa S54 ya se ha generado. Cuando se determina, en la etapa S55, que el DPS no ha sido generado aun, la unidad 63 de codificación del DPS genera el DPS que incluye el resultado de la codificación diferencial obtenido en la etapa S54 o en la etapa S56, y el proceso procede a la etapa S57.
En la etapa S57, la unidad 63 de codificación del DPS asigna el DPS_id al DPS generado en la etapa S53 o la etapa S56 y permite que el DPS_id sea incluido en el DPS. La unidad 63 de codificación del DPS retiene el DPS que incluye el DPS_id. El DPS retenido se usa en el momento de la determinación de la etapa S52 y la etapa S55.
En la etapa S58, la unidad 63 de codificación del DPS transmite el DPS que incluye el DPS_id, a la unidad 64 de codificación del encabezamiento de la sección. Entonces, el proceso regresa a la etapa S33 de la Fig. 8 y procede a la etapa S34.
Por el contrario, cuando se determina, en la etapa S52, que el DPS ya se ha generado, la unidad 63 de codificación del DPS detecta el DPS_id del DPS del DPS retenido en la etapa S57 y transmite el DPS_id a la unidad 64 de codificación del encabezamiento de la sección, en la etapa S59. Entonces, el proceso regresa a la etapa S33 de la Fig. 8 y procede a la etapa S34.
Por el contrario, cuando se determina, en la etapa S55, que el DPS ya se ha generado, la unidad 63 de codificación del DPS detecta el DPS_id del DPS, de los DPS retenidos en la etapa S57 y trasmite la DPS_id a la unidad 64 de codificación del encabezamiento de la sección, en la etapa S60. Entonces, el proceso regresa a la etapa S33 de la Fig. 8 y procede a la etapa S34.
Como se describe anteriormente, ya que el dispositivo 50 de codificación establece la información de la imagen de profundidad en el DPS, permite que la información de la imagen de profundidad sea incluida en el flujo codificado, y transmite el flujo codificado, la información de la imagen de profundidad puede ser compartida entre las secciones. Como resultado, la redundancia de la información de la imagen de profundidad puede ser reducida más que cuando la información de la imagen de profundidad se incluye en el encabezamiento de la sección o los similares, a ser trasmitido, y por lo tanto, es posible reducir la cantidad de codificación.
Ya que la información de la imagen de profundidad en el DPS se establece en de forma distinta al conjunto de parámetros, el SPS y el PPS existentes y se genera el flujo codificado, el dispositivo 50 de codificación puede generar el flujo de codificación con compatibilidad con un flujo codificado existente.
Además, cuando el dispositivo 50 de codificación asigna el DPS_id en la secuencia de establecimiento del DPS, el lado de decodificación puede detectar que el DPS se ha perdido durante la transmisión, con base en el DPS_id incluido en el DPS. Por consiguiente, en este caso, el dispositivo 50 de codificación puede llevar a cabo la transmisión con alta tolerancia a los errores.
En el dispositivo 50 de codificación, la imagen de
profundidad de vistas múltiples se genera a partir de la imagen en color, de vistas múltiples, corregida. Sin embargo, cuando se captura la imagen en color, de vistas múltiples, la imagen de profundidad, de vistas múltiples puede ser generada por un detector que detecta la disparidad d y la profundidad Z.
Ejemplo de la Configuración del Dispositivo de Decodificación de la modalidad
La Fig. 10 es un diagrama de bloques que ilustra un ejemplo de la configuración de un dispositivo de decodificación que decodifica un flujo codificado transmitido desde el dispositivo 50 de codificación, en la Fig. 2, de acuerdo con una modalidad a la cual se aplica la presente tecnología .
El dispositivo 80 de decodificación se configura para incluir una unidad 81 de decodificación de imágenes de vistas múltiples, una unidad 82 de síntesis del punto de vista, y una unidad 83 de despliegue de imágenes de vistas múltiples.
La unidad 81 de decodificación de imágenes de vistas múltiples del dispositivo 80 de decodificación recibe el flujo codificado, transmitido desde el dispositivo 50 de codificación, en la Fig. 2. La unidad 81 de decodificación de imágenes de vistas múltiples extrae el SPS, el PPS, el DPS, el encabezamiento de la sección, los datos codificados de las unidades de sección, y los similares, del flujo codificado
adquirido. Entonces, la unidad 81 de decodificación de imágenes de vistas múltiples decodifica los datos codificados de la imagen de profundidad de la sección correspondiente al encabezamiento de la sección, con base en el DPS especificado por el DPS_id incluido en el encabezamiento de la sección para cada punto de vista, de acuerdo con un esquema correspondiente al esquema de codificación de la unidad 55 de codificación de imágenes de vistas múltiples, en la Fig. 2, para generar la imagen de profundidad. La unidad 81 de decodificación de imágenes de vistas múltiples decodifica los datos codificados de las unidades de sección de la imagen en color, de vistas múltiples de acuerdo con el esquema correspondiente al esquema de codificación de la unidad 55 de codificación de imágenes de vistas múltiples, para generar la imagen en color, de vistas múltiples, corregida. La unidad 81 de decodificación de imágenes de vistas múltiples suministra la imagen en color, de vistas múltiples, corregida, y la imagen de profundidad de vistas múltiples, a la unidad 82 de síntesis del punto de vista .
La unidad 82 de síntesis del punto de vista lleva a cabo un proceso de deformación (los detalles del cual se describirán a continuación) a los puntos de vista (conocidos de aquí en adelante como puntos de vista de despliegue) del número de puntos de vista correspondientes a la unidad 83 de despliegue de imágenes de vistas múltiples sobre la imagen de
profundidad de vistas múltiples, de la unidad 81 de decodificación de imágenes de vistas múltiples. En este momento, la información de la imagen de profundidad puede ser establecida para ser usada.
El proceso de deformación es un proceso para llevar a cabo la transformación geométrica de una imagen de un punto de vista dado, a una imagen de otro punto de vista. Los puntos de vista de despliegue incluyen los puntos de vista distintos a los puntos de vista correspondientes a la imagen en color de vistas múltiples.
La unidad 82 de síntesis del punto de vista lleva a cabo el proceso de deformación a los puntos de vista de despliegue en la imagen en color, de vistas múltiples, corregida, de la unidad 81 de decodificación de imágenes de vistas múltiples, con base en la imagen de profundidad de los puntos de vista de despliegue obtenidos como resultado del proceso de deformación. En este momento, la información de la imagen de profundidad puede ser establecida para ser usada. La unidad 82 de síntesis del punto de vista suministra la imagen en color de los puntos de vista de despliegue, obtenida como el resultado del proceso de deformación, como la imagen en color, de vistas múltiples, sintetizada a la unidad 83 de despliegue de imágenes de vistas múltiples.
La unidad 83 de despliegue de imágenes de vistas múltiples despliega la imagen en color, de vistas múltiples,
sintetizada, desde la unidad 82 de síntesis del punto de vista, de modo tal que el ángulo que puede ser visualizado es diferente en cada punto de vista. El observador puede ver una imagen tridimensional de una pluralidad de puntos de vista sin usar lentes, solamente al observar imágenes de dos puntos de vista arbitrarios con el ojo izquierdo y derecho, respectivamente .
Ejemplo de la Configuración de la Unidad de Decodificación de Imágenes de Vistas Múltiples
La Fig. 11 es un diagrama de bloques que ilustra un ejemplo de la configuración de la unidad 81 de decodificación de imágenes de vistas múltiples, en la Fig. 10.
La unidad 81 de decodificación de imágenes de vistas múltiples, en la Fig. 11, se configura para incluir una unidad 101 de decodificación del SPS, una unidad 102 de decodificación del PPS, una unidad 103 de decodificación del ,DPS, una unidad 104 de decodificación del encabezamiento de la sección, y una unidad 105 de decodificación de la sección.
La unidad 101 de decodificación del SPS de la unidad 81 de decodificación de imágenes de vistas múltiples recibe el flujo codificado transmitido desde el dispositivo 50 de codificación, en la Fig. 2. La unidad 101 de decodificación del SPS extrae el SPS del flujo codificado. La unidad 101 de decodificación del SPS suministra el SPS extraído y el flujo codificado a la unidad 102 de decodificación del PPS y la
unidad 103 de decodificación del DPS.
La unidad 102 de decodificación del PPS extrae el p/p del flujo codificado, suministrado desde la unidad 101 de decodificación del SPS. La unidad 102 de decodificación del PPS suministra el PPS extraído y el flujo codificado suministrados desde la unidad 101 de decodificación del SPS, a la unidad 104 de decodificación del encabezamiento de la sección. La unidad 103 de decodificación del DPS funciona como o una unidad de adquisición y adquiere el DPS del flujo codificado suministrado desde la unidad 101 de decodificación del SPS. La unidad 103 de decodificación del DPS funciona como una unidad de procesamiento de análisis sintáctico, y analiza sintácticamente (extrae) y retine la información de la imagen de profundidad del DPS. La información de la imagen de profundidad se suministra a la unidad 82 de síntesis del punto de vista, según sea necesario.
La unidad 104 de decodificación del encabezamiento de la sección extrae el encabezamiento de la sección del flujo codificado, suministrado desde la unidad 102 de decodificación del PPS. La unidad 104 de decodificación del encabezamiento de la sección lee la información de la imagen de profundidad del DPS especificado por el DPS_id incluido en el encabezamiento de la sección de la unidad 103 de decodificación del DPS. La unidad 104 de decodificación del encabezamiento de la sección suministra el SPS, el PPS, el encabezamiento de la sección, el
DPS, y el flujo codificado a la unidad 105 de decodificación de la sección.
La unidad 105 de decodificación de la sección funciona como la unidad de adquisición y adquiere los datos codificados de las unidades de sección, del flujo codificado suministrados desde la unidad 104 de decodificación del encabezamiento de la sección. La unidad 105 de decodificación de la sección funciona como una unidad de generación y decodifica el resultado de la codificación diferencial incluido en el DPS suministrados desde la unidad 104 de decodificación del encabezamiento de la sección, con base en el tipo de la sección correspondiente al DPS.
Específicamente, cuando el tipo de la sección, de la sección correspondiente a DPS es el tipo intra, la unidad 105 de decodificación de la sección lleva a cabo la decodificación usando el resultado de la codificación diferencial incluido en el DPS como el resultado de la decodificación, sin cambios. Por otro lado, cuando el tipo de la sección, de la sección correspondiente al DPS es el tipo inter, la unidad 105 de decodificación de la sección agrega el resultado de la codificación diferencial incluido en el DPS y la información de la imagen de profundidad retenida, de la sección inmediatamente precedente en la secuencia de codificación, y establece el valor agregado, obtenido como el resultado de la adición, como el resultado de la decodificación. La unidad 105
de decodificación de la sección retiene el resultado de la decodificación como la información de la imagen de profundidad.
La unidad 105 de decodificación de la sección decodifica los datos codificados de las unidades de sección, con base en el SPS, el PPS, el encabezamiento de la sección, y la información de la imagen de profundidad, suministrados desde la unidad 104 de decodificación del encabezamiento de la sección, de acuerdo con un esquema que corresponde al esquema de codificación en la unidad 65 de codificación de la sección (Fig. 3) . La unidad 104 de decodificación del encabezamiento de la sección suministra la imagen en color, de vistas múltiples, corregida y la imagen de profundidad de vistas múltiples, obtenidas como el resultado de la decodificación, a la unidad 82 de síntesis del punto de vista, en la Fig. 10.
Descripción del Proceso del Dispositivo de Decodif cación .
La Fig. 12 es un diagrama de flujo que ilustra el proceso de decodificación del dispositivo 80 de decodificación, en la Fig. 10. El proceso de decodificación inicia, por ejemplo, cuando el flujo codificado se trasmite desde el dispositivo 50 de codificación, en la Fig. 2.
En la etapa S62 de la Fig. 12, la unidad 81 de decodificación de imágenes de vistas múltiples del dispositivo 80 de decodificación recibe el flujo codificado, transmitido
desde el dispositivo 50 de codificación de la Fig. 2.
En la etapa S62, la unidad 81 de decodificación de imágenes de vistas múltiples lleva a cabo el proceso de decodificación de vistas múltiples del flujo codificado recibido. Los detalles del proceso de decodificación de vistas múltiples se describirán con referencia a la Fig. 13, a ser descrita a continuación.
En la etapa S53, la unidad 82 de síntesis del punto de vista genera la imagen en color, de vistas múltiples, sintetizada, con base en la imagen en color, de vistas múltiples, corregida, y la imagen de profundidad, de vistas múltiples suministradas desde la unidad 81 de decodificación de imágenes de vistas múltiples.
En la etapa S64, la unidad 83 de despliegue de imágenes de vistas múltiples despliega la imagen en color, de vistas múltiples, sintetizada, suministrada desde la unidad 82 de síntesis del punto de vista, de modo tal que el ángulo que puede ser visualizado es diferente en cada punto de vista y termina el proceso.
La Fig. 13 es un diagrama de flujo que ilustra los detalles del proceso de decodificación de vistas múltiples de la etapa S62 de la Fig. 12.
En la etapa S71 de la Fig. 13, la unidad 101 de decodificación del SPS de la unidad 81 de decodificación de imágenes de vistas múltiples extrae el SPS del flujo
codificado recibido. La unidad 101 de decodificación del SPS suministra el SPS extraído y el flujo codificado a la unidad 102 de decodificación del PPS y la unidad 103 de decodificación del DPS.
En la etapa S72, la unidad 102 de decodificación del PPS extrae el PPS del flujo codificado suministrados desde la unidad 101 de decodificación del SPS. La unidad 102 de decodificación del PPS suministra el PPS extraído, y el SPS y el flujo codificado, suministrados desde la unidad 101 de decodificación del SPS a la unidad 104 de decodificación del encabezamiento de la sección.
En la etapa S73, la unidad 103 de decodificación del DPS extrae el DPS del flujo codificado, suministrado desde la unidad 101 de decodificación del SPS y analiza sintácticamente y retiene la información de la imagen de profundidad del DPS. Los procesos posteriores de la etapa S74 a la etapa S77 se llevan a cabo en unidades de sección de cada punto de vista. En la etapa S74, la unidad 104 de decodificación del encabezamiento de la sección extrae el encabezamiento de la sección, de la sección del punto de vista del flujo codificado, suministrado desde la unidad 102 de decodificación del PPS.
En la etapa S75, la unidad 104 de decodificación del encabezamiento de la sección lee la información de la imagen de profundidad del DPS especificado por el DPS_id incluido en
el encabezamiento de la sección extraído en la etapa S74 desde la unidad 103 de decodificación del DPS . La unidad 104 de decodificación del encabezamiento de la sección suministra el SPS, el PPS, el encabezamiento de la sección y el DPS de la sección del punto de vista objetivo, y el flujo codificado a la unidad 105 de decodificación de la sección.
En la etapa S76, la unidad 105 de decodificación de la sección decodifica el resultado de la codificación diferencial, incluido en el DPS suministrados desde la unidad 104 de decodificación del encabezamiento de la sección y lleva a cabo un proceso de generación para generar la información de la imagen de profundidad. Los detalles del proceso de generación se describirán con referencia a la Fig. 14, a ser descrita a continuación.
En la etapa S77, la unidad 105 de decodificación de la sección extrae los datos codificados de la sección del punto de vista objetivo del flujo de datos codificados, suministrados desde la unidad 104 de decodificación del encabezamiento de la sección.
En la etapa S78, la unidad 105 de decodificación de la sección decodifica los datos codificados de la sección del punto de vista objetivo, con base en el SPS, el PPS, y el encabezamiento de la sección, suministrados desde la unidad 104 de decodificación del encabezamiento de la sección y la información de la imagen de profundidad, de acuerdo con el
esquema correspondiente al esquema de codificación en la unidad 65 de codificación de la sección (Fig. 3) . La unidad 105 de decodificación de la sección suministra la imagen en color corregida y la imagen de profundidad, obtenidas como el resultado de la decodificación, a la unidad 82 de síntesis del punto de vista, en la Fig. 10. Entonces, el proceso regresas a la etapa S62 de la Fig. 12 y procede a la etapa S63.
La Fig. 14 es un diagrama de flujo que ilustra los detalles del proceso de generación de la etapa S76 de la Fig. 13.
En la etapa S91, la unidad 105 de decodificación de la sección determina si el tipo de la sección del punto de vista objetivo es el tipo intra. Cuando en la tapa S91 se determina que el tipo de la sección del punto de vista objetivo es el tipo intra, el proceso procede a la etapa S92.
En la etapa S92, la unidad 105 de decodificación de la sección retiene el resultado de la codificación diferencial del valor mínimo de la profundidad incluido en el DPS suministrado desde la unidad 104 de decodificación del encabezamiento de la sección junto con el valor mínimo de la profundidad de la información de la imagen de profundidad del resultado de la decodificación.
En la etapa S93, la unidad 105 de decodificación de la sección retiene el resultado de la codificación diferencial del valor máximo de la profundidad incluido en DPS
suministrado desde la unidad 104 de decodificación del encabezamiento de la sección junto con el valor máximo de la profundidad de la información de la imagen de profundidad del resultado de la decodificación.
En la etapa S94, la unidad 105 de decodificación de la sección retiene el resultado de la codificación diferencial de la distancia intracámaras incluida en el DPS suministrado desde la unidad 104 de decodificación del encabezamiento de la sección junto con la distancia intercámaras de la información de la información de la imagen de profundidad del resultado de la decodificación. Entonces, el proceso regresa a la etapa S76 de la Fig. 13 y procede a la etapa S77,
Por el contrario, cuando en la etapa S91 se determina que el tipo de la sección del punto de vista objetivo no es el tipo intra, es decir, el tipo de la sección del punto de vista objetivo es el tipo ínter, el proceso procede a la etapa S95.
En la tapa S95, la unidad 105 de decodificación de la sección lleva a cabo la decodificación al agregar el resultado de la codificación diferencial del valor mínimo de la profundidad incluido en el DPS suministrado desde la unidad 104 de decodificación del encabezamiento de la sección, al valor mínimo de la profundidad, retenido, de la sección inmediatamente precedente en la secuencia de codificación. La unidad 105 de decodificación de la sección retiene el valor mínimo de la profundidad de la información de la imagen de
profundidad obtenida como el resultado de la decodificación.
En la etapa S96, la unidad 105 de decodificación de la sección lleva a cabo la decodificación al agregar el resultado de la codificación diferencial del valor máximo de la profundidad incluido en el DPS suministrado desde la unidad 104 de decodificación del encabezamiento de la sección, al valor máximo de la profundidad retenido, de la sección inmediatamente precedente en la secuencia de codificación. La unidad 105 de decodificación de la sección retiene el valor máximo de la profundidad de la información de la imagen de profundidad obtenida como resultado de la codificación.
En la etapa S97, la unidad 105 de decodificación de la sección lleva a cabo la decodificación al agregar el resultado de la codificación diferencial de la distancia intercámaras incluida en el DPS suministrado desde la unidad 104 de decodificación del encabezamiento de la sección, a la distancia intercámaras de la sección inmediatamente precedente en la secuencia de codificación. La unidad 105 de decodificación de la sección retiene la distancia intercámaras de la información de la imagen de profundidad obtenida como el resultado de la decodificación. Entonces, el proceso regresa a la etapa S76 de la Fig. 13 y procede a la etapa S77.
Como se describe anteriormente, el dispositivo 80 de decodificación puede decodificar el flujo codificado, la cantidad de codificación del cual se reduce al establecer la
información de la imagen de profundidad en el DPS. También, ya que la información de la imagen de profundidad se incluye en el flujo codificado, el dispositivo 80 de decodificación puede decodificar el flujo codificado, usado en el momento de la codificación de la información de la imagen de profundidad.
Ya que la información de la imagen de profundidad puede ser incluida en un DPS diferente de los conjuntos de parámetros existentes, el SPS y el PPS, es posible usar fácilmente la información de la imagen de profundidad en el momento del postproceso, tal como el proceso de deformación. Además, ya que el DPS se arregla colectivamente antes de los datos codificados de las unidades de sección, la unidad 82 de síntesis del punto de vista puede adquirir colectivamente la información de la imagen de profundidad antes de la decodificación.
La información de la imagen de profundidad puede no ser usada en la codificación o la codificación de la imagen de profundidad de vistas múltiples.
En la modalidad descrita anteriormente, el DPS_id se incluye en el encabezamiento de la sección, por ejemplo, cuando la información de la imagen de profundidad se establece en las unidades de secuencia (unidades de GOP (grupo de imágenes) ) el SPS existente puede ser extendido y el DPS_id puede ser incluido en el SPS extendido (llamado de aquí en adelante como SPS extendido) .
En este caso, la sintaxis del SPS extendido se muestra, por ejemplo, en la Fig. 15. Es decir, el SPS extendido incluye la bandera profundidad_rango_presente_bandera (información de identificación) que identifica el hecho de que el DPS está presente, como se muestra en la 2a linea, e incluye el DPS_id (profundidad_parámetros_conjunto_id) cuando la bandera profundidad_rango_presente_bandera es 1, como se muestra en la 3a linea.
En este caso, como se muestra en la 5a linea y la 6a linea de la Fig. 16, la bandera profundidad_ponderada_pred_bandera y la bandera profundidad_ponderada_bipred_bandera también pueden ser establecidas en unidades de secuencia y se incluyen en el SPS extendido .
También, el encabezamiento de la sección existente puede ser extendido en lugar del SPS existente y el DPS_id puede ser incluido en el encabezamiento de la sección extendido (conocido de aqui en adelante como encabezamiento de la sección extendido) .
En este caso, por ejemplo, se extiende sección_capa . Por lo tanto, como se ilustra en la Fig. 17, se define una unidad de NAL en la cual el tipo de la unidad de NAL nal_unidad_tipo es 21, es decir, sección_capa
(sección__capa_3dvc_extensión_rbsp) (conocida de aqui en adelante como una sección_capa extendida) se extiende como la
sección_capa de la unidad de NAL de los datos codificados, codificados de acuerdo con el esquema 3DVC. Como se ilustra en la Fig. 17, el tipo de la unidad de NAL nal_unidad_tipo del DPS es 16, lo cual es diferente de la unidad NAL existente, tal como el SPS o el PPS.
Como se ilustra en la Fig. 18 los datos codificados de la sección_capa extendida (sección_capa_3dvc_extensión_rbsp) se definen por incluir el encabezamiento de la sección extendido (sección_encabezamiento_3dvc_extensión) y los datos codificados (sección_datos) de la unidad de sección.
La sintaxis del encabezamiento de la sección extendido (sección_encabezamiento_3dvc_extensión) se ilustra por ejemplo en la Fig. 19. Es decir, como se muestra en la 2a linea a la 4a linea de la Fig. 19, el encabezamiento de la sección extendido ( sección_encabezamiento_3dvc_extensión) incluye no solo el encabezamiento de la sección existente (sección_encabezamiento) sino también el DPS_id
(profundidad_parámetros_conjunto_id) cuando la bandera profundidad_ponderada_pred_bandera o profundidad_ponderada_bipred_bandera es 1.
El encabezamiento de la sección extendido (sección_encabezamiento_3dvc_extensión) puede incluir la bandera profundidad_ponderada_pred_bandera o profundidad_ponderada_bipred_bandera, como se ilustra en la Fig. 20.
Como se ilustra en la Fig. 19 o 20, ya que el encabezamiento de la sección se incluye en el encabezamiento de la sección extendido, es posible mantener completamente la compatibilidad con el flujo codificación existente.
Como se ilustra en las Figs . 17 y 18, sección_capa no se extiende, sino que el encabezamiento de la sección extendido (sección_encabezamiento_3dvc_extensión) también puede ser definido con la sección_capa existente.
En este caso, como se muestra en la 15a linea y la 16a linea de la Fig. 21, cuando el tipo de la unidad de NAL nal_unidad_tipo es 21, la unidad de NAL incluye una bandera 3DVC_extensión_bandera que indica si el tipo de la unidad de NAL es una unidad de NAL para el esquema 3DVC.
Como se muestra en la 6a linea a la 8a linea de la Fig. 22, cuando la bandera 3dvc_extensión_bandera es 1, lo cual indica la unidad de NAL para el esquema 3DVC, los datos codificados de sección_capa se definen por incluir un encabezamiento de la sección extendido
( sección_encabezamiento_3dvc_extensión) y los datos codificados ( sección_datos ) de la unidad de sección.
En la modalidad anterior, como se ilustra en la Fig. 4, el DPS se comparte entre las secciones y el encabezamiento de la sección incluye el DPS_id del DPS de la sección correspondiente. Sin embargo, como se ilustra en la Fig. 23, el DPS puede ser establecido para cada sección y el DPS puede
ser agregado a los datos codificados de cada sección. En este caso, el DPS_id no se asigna al DPS y el DPS_id no se incluye en el encabezamiento de la sección.
Descripción de la Computadora a la Cual se aplica la Presente Tecnología
Enseguida, la serie de procesos descrita anteriormente puede ser llevada a cabo por medio de un conjunto de componentes físicos o puede ser llevada a cabo por un conjunto de componentes lógicos. Cuando la serie de procesos se lleva a cabo por medio de un conjunto de componentes lógicos, los programas para el conjunto de componentes lógicos se instalan en una computadora de propósito general o las similares.
Aquí, la Fig. 24 ilustra un ejemplo de la configuración de una computadora de una modalidad en la cual se instalan los programas que llevan a cabo la serie de procesos descrita anteriormente .
Los programas pueden ser registrados por adelantado en una unidad 808 de almacenamiento o una ROM (Memoria de Solo Lectura) 802 que sirve como un medio de registro incluido en la computadora.
Alternativamente, el programa también puede ser almacenado (registrado) en un medio 811 removible. El medio 811 removible puede ser proporcionado como y así llamado paquete informático. Aquí, los ejemplos del medio 811 removible incluyen discos flexibles, CD-ROM (Disco Compacto de
Memoria de solo Lectura) , y discos MO (Magnetoópticos) , discos DVD (Disco Versátil Digital) , discos magnéticos, y memorias de semiconductores .
Los programas pueden ser instalados en una computadora desde el medio 811 removible descrito anteriormente, a través de un lector 810 y también pueden ser descargados a una computadora a través de una red de comunicación o una red de radiodifusión para ser instalados e incluidos en una unidad 808 de almacenamiento. Es decir, por ejemplo, los programas pueden ser trasmitidos a una computadora en una manera inalámbrica, desde un sitio de descarga, a través de un satélite artificial para radiodifusión digital por satélite o pueden ser transmitidos a una computadora en una manera cableada a través de una red, tal como una LAN (Red de Área Local) o la Red internacional.
Una computadora incluye una CPU (Unidad Central de Procesamiento) 801. Una interfaz 805 de entrada/salida se conecta a la CPU 801 a través de una linea 804 común de transmisión .
Cuando un usuario manipula la unidad 806 de entrada para introducir instrucciones a través de la interfaz 805 de entrada/salida, la CPU 801 ejecuta los programas almacenados en la ROM 802 de acuerdo con las instrucciones. Alternativamente, la CPU 801 carga los programas almacenados en la unidad 808 de almacenamiento a una RAM (Memoria de
Acceso Aleatorio) 803 y ejecuta los programas.
Por consiguiente, la CPU 801 lleva a cabo los procesos de acuerdo con los diagramas de flujo descritos anteriormente o los procesos llevados a cabo por las configuraciones descritas anteriormente de los diagramas de bloques. Entonces, la CPU 801 transmite los resultados del procesamiento desde la unidad 807 de salida, transmite los resultados del procesamiento desde una unidad 809 de comunicación, o registra los resultados del procesamiento en la unidad 808 de almacenamiento, por ejemplo, a través de la interfaz 805 de entrada/salida, como sea necesario.
La unidad 806 de entrada se configura para incluir un teclado, un ratón, un micrófono. La unidad 807 de salida se configura para incluir una LCD (Pantalla de Cristal Liquido) o un altavoz.
Aqui, en la presente especificación, los procesos llevados a cabo de acuerdo con los programas, por la computadora, pueden no ser llevados a cabo necesariamente de forma cronológica de acuerdo con el orden descrito en los diagramas de flujo. Es decir, los proceso llevados a cabo de acuerdo con los programas, por la computadora, también incluyen procesos (por ejemplo, procesos en paralelo o procesos por objetos) llevados a cabo en paralelo o individualmente .
Los programas pueden ser procesados por una computadora
(procesador) individual o pueden ser procesados en una manera distribuida por una pluralidad de computadoras. Los programas pueden ser transmitidos a computadoras ubicadas en sitios remotos para ser ejecutados.
La presente tecnología puede ser aplicada a un dispositivo de codificación o un dispositivo de decodificación usados cuando se lleva a cabo la comunicación a través de un medio de red, como por ejemplo radiodifusión satelital, TV (televisión) por cable, la Red internacional, y un teléfono portátil o cuando el procesamiento se lleva a cabo en medios de almacenamiento, tales como un discos ópticos, discos magnéticos, y memorias de semiconductores.
El dispositivo de codificación y el dispositivo de decodificación descritos anteriormente pueden ser aplicados a cualquier aparato electrónico. Los ejemplos de los aparatos electrónicos se describirán a continuación.
Ejemplo de la Configuración de un Aparato de Televisión La Fig. 25 ejemplifica la configuración global de un aparato de televisión al cual se aplica la presente tecnología. El aparato 900 de televisión incluye una antena 901, un sintonizador 902, un desmultiplexor 903, un decodificador 904, una unidad 905 de procesamiento de señales de video, una unidad 906 de visualización, una unidad 907 de procesamiento de señales de voz, un altavoz 908, y una unidad 909 de interfaz externa. El aparato 900 de televisión incluye
además una unidad 910 de control y una unidad 911 de interfaz de usuario.
El sintonizador 902 sintoniza un canal deseado, de una señal de radiodifusión recibida por la a 901, lleva a cabo la demodulación y transmite el flujo codificado obtenido al desmultiplexor 903.
El desmultiplexor 903 extrae los paquetes de video o de voz de un programa a ser visualizado, desde el flujo codificado, y transmite los datos de los paquetes extraídos al decodificador 904. El desmultiplexor 903 suministra los paquetes de datos tales como la EPG (Guía Electrónica de Programación) a la unidad 910 de control. Cuando se lleva a cabo la encriptación, la encriptación se cancela por el desmultiplexor o los similares.
El decodificador 904 lleva a cabo un proceso de decodificación sobre los paquetes y transmite los datos de video y los datos de voz, generados a través del proceso de decodificación, a la unidad 905 de procesamiento de señales de video y a la unidad 907 de procesamiento de señales de voz, respectivamente.
La unidad 905 de procesamiento de señales de video lleva a cabo la eliminación del ruido o el procesamiento de video o los similares de acuerdo con la configuración del usuario, sobre los datos de video. La unidad 905 de procesamiento de señales de video genera los datos de video de un programa a
ser visualizado en la unidad 906 de visualización o genera los datos de imagen a través de un proceso basado en una aplicación suministrada a través de una red. La unidad 905 de procesamiento de señales de video genera los datos de video para visualizar una pantalla de menú o las similares, para la selección o los similares de elementos y traslapa los datos de video con los datos de video del programa. La unidad 905 de procesamiento de señales de video genera una señal de accionamiento con base en los datos de video generados de esta forma y acciona la unidad 906 de visualización.
La unidad 906 de visualización acciona un dispositivo de visualización (por ejemplo un elemento de cristal liquido) con base en la señal de accionamiento de la unidad 905 de procesamiento de señales de video y despliega el video o los similares del programa.
La unidad 907 de procesamiento de señales de voz lleva a cabo el procesamiento predeterminado, como por ejemplo la eliminación del ruido, sobre los datos de voz, lleva a cabo el proceso de conversión D/A o un proceso de amplificación sobre los datos de voz procesados, y suministra los datos de voz al altavoz 908, para llevar a cabo la transmisión de la voz.
La unidad 909 de interfaz externa es una interfaz usada para conectar un aparato externo o una red y lleva a cabo la transmisión y la recepción de datos, de los datos de video, los datos de voz, o los similares.
La interfaz 911 de usuario se conecta a la unidad 910 de control. La interfaz 911 de usuario se configura para incluir un interruptor de manipulación o una unidad de recepción de señales de control remoto y suministra una señal de manipulación de acuerdo con la manipulación del usuario, a la unidad 910 de control.
La unidad 910 de control se configura usando una CPU (Unidad Central de Procesamiento) , una memoria o las similares. La memoria almacena los programas a ser ejecutados por la CPU, varios tipos de datos necesarios para que la CPU lleve a cabo los procesos, datos de la EPG, datos adquiridos a través de una red y los similares. Los programas almacenados en la memoria son leídos y ejecutados por la CPU con una temporización predeterminada, como por ejemplo, en el momento de la activación del aparato 900 de televisión. La CPU ejecuta los programas para controlar cada unidad, de modo tal que el aparato 900 de televisión opere de acuerdo con la manipulación del usuario.
En el aparato 900 de televisión, una linea 912 común de comunicación se instala para conectar la unidad 910 de control al sintonizador 902, el desmultiplexor 903, la unidad 905 de procesamiento de señales de video, la unidad 907 de procesamiento de señales de voz, la unidad 909 de interfaz externa, y las similares.
En el aparato de televisión configurado de esta manera,
la función del dispositivo de decodificación (método de decodificación) de la presente solicitud se instala en el decodificador 904. Por lo tanto, es posible decodificar el flujo codificado para el cual se reduce la cantidad de codificación del flujo codificado cuando la información relacionada con la información de profundidad se incluye en el flujo codificado.
Ejemplo de la Configuración de un Teléfono Portátil
La Fig. 26 ejemplifica la configuración global de un teléfono portátil al cual se aplica la presente tecnología. Un teléfono 920 portátil incluye una unidad 922 de comunicación, un codificador-decodificador 923 de audio, una unidad 926 de cámara, una unidad 927 de procesamiento de imágenes, una unidad 928 de desmultiplexión, una unidad 929 de registro y reproducción, una unidad 930 de visualización, y una unidad 931 de control. Estas unidades se conectan entre si a través de una línea 933 común de comunicación.
Una antena 921 se conecta a la unidad 922 de comunicación, y un altavoz 924 y un micrófono 925 se conectan al codificador-decodificador 923 de audio. Una unidad 932 de manipulación también se conecta a la unidad 931 de control.
El teléfono 920 portátil lleva a cabo varias operaciones tales como, la transmisión y la recepción de señales de audio, la transmisión y la recepción de correos electrónicos o datos de imagen, fotografía de imágenes, y registro de datos en
varios modos de operación tales como el modo de conferencia telefónica, o el modo de comunicación de datos.
En el modo de conferencia telefónica, una señal analógica de voz, generada por el micrófono 925, se somete a la conversión a datos de voz o compresión de datos por el codificador-decodificador 923 de audio para ser suministrados a la unidad 922 de comunicación. La unidad 922 de comunicación lleva a cabo el proceso de modulación de los datos de voz, un proceso de conversión de la frecuencia, o los similares, para generar una señal de transmisión. La unidad 922 de comunicación suministra la señal de transmisión a la antena 921 para su transmisión a una estación base (no se ilustra) . La unidad 922 de comunicación lleva a cabo la amplificación, un proceso de conversión de la frecuencia, un proceso de desmodulación, o los similares sobre una señal recibida, recibida por la antena 921 y suministra los datos de voz obtenidos al codificador-decodificador 923 de audio. El codificador-decodificador 923 de audio lleva a cabo la descompresión de los datos sobre los datos de voz o convierte los datos de voz en una señal analógica de voz y transmite la señal analógica de voz al altavoz 924.
Cuando se lleva a cabo la transmisión de correo electrónico en el modo de comunicación de datos, la unidad 931 de control recibe los datos de las letras introducidas a través de la manipulación . de la unidad 932 de manipulación y
despliega las letras introducidas en la unidad 930 de visualización . La unidad 931 de control genera los datos del correo con base en las instrucciones del usuario o las similares en la unidad 932 de manipulación y suministra los datos del correo a la unidad 922 de comunicación. La unidad 922 de comunicación lleva a cabo un proceso de modulación, un proceso de conversión de la frecuencia, o los similares, sobre los datos del correo y transmite la señal de transmisión obtenida desde la antena 921. La unidad 922 de comunicación lleva a cabo un proceso de amplificación, un proceso de conversión de la frecuencia, un proceso de demodulación, o los similares sobre una señal recibida, recibida por la antena 921 para restablecer los datos del correo. Los datos del correo se suministran a la unidad 930 de visualización para visualizar el contenido del correo.
En el teléfono 920 portátil, los datos del correo recibidos también pueden ser almacenados en un medio de almacenamiento, por la unidad 929 de registro y reproducción. El medio de almacenamiento es cualquier medio de almacenamiento rescribible. Por ejemplo, el medio de almacenamiento es un medio removible tal como una memoria de semiconductores tal como una RAM o una memoria de destello integrada, un disco duro, un disco magnético, un disco magnetóptico, un disco óptico, un memoria USB, o una tarjeta de memoria.
Cuando los datos de imagen se transmiten en el modo de comunicación de datos, los datos de imagen generados por la unidad 926 de cámara se suministran a la unidad 927 de procesamiento de imágenes. La unidad 927 de procesamiento de imágenes lleva a cabo un proceso de codificación sobre los datos de imagen para generar los datos codificados.
La unidad 928 de separación de multiplexión multiplexa los datos codificados por la unidad 927 de procesamiento de imágenes y los datos de voz suministrados desde el codificador-decodificador 923 de voz de acuerdo con un esquema predeterminado, y suministra los datos codificados y los datos de voz multiplexados a la unidad 922 de comunicación. La unidad 922 de comunicación lleva a cabo un proceso de modulación, un proceso de conversión de la frecuencia, o los similares, sobre los datos multiplexados y transmite la señal de transmisión obtenida desde la antena 921. La unidad 922 de comunicación lleva a cabo un proceso de amplificación, un proceso de conversión de la frecuencia, un proceso de demodulación, o los similares sobre una señal recibida, recibida por la antena 921, para restablecer los datos multiplexados. Los datos multiplexados se suministran a la unidad 928 de separación de multiplexión. La unidad 928 de separación de multiplexión separa los datos multiplexados y suministra los datos codificados y los datos de voz a la unidad 927 de procesamiento de imágenes y el codificador-
decodificador 923 de voz, respectivamente. La unidad 927 de procesamiento de imágenes lleva a cabo un proceso de decodificación sobre los datos codificados para generar los datos de imagen. Los datos de imagen se suministran a la unidad 930 de visualización para visualizar la imagen recibida. El codificador-decodificador 923 de voz convierte los datos de voz en una señal analógica de voz, suministra la señal analógica de voz al altavoz 924, y transmite la voz recibida .
En el aparato de teléfono portátil configurado de esta forma, las funciones del dispositivo de codificación (método de codificación) y el dispositivo de decodificación (método de decodificación) de la presente solicitud se instalan en una unidad 927 de procesamiento de imágenes. Por lo tanto, es posible reducir la cantidad de codificación del flujo codificado cuando la información relacionada con la imagen de profundidad se incluye en el flujo codificado. Además, es posible decodificar el flujo codificado para el cual se reduce la cantidad de codificación del flujo codificado, cuando la información relacionada con la imagen de profundidad se incluye en el flujo codificado.
Ejemplo de la Configuración del Aparato de Registro-Reproducción
La Fig. 27 ejemplifica la configuración global de un aparato de registro-reproducción al cual se aplica la presente
tecnología. Por ejemplo, un aparato 940 de registro y reproducción registra datos de audio y datos de video de un programa de radiodifusión recibido, en un medio de registro y suministra los datos registrados a un usuario, con una temporización de acuerdo con las instrucciones de un usuario. Por ejemplo, el aparato 940 de registro y reproducción puede adquirir los datos de audio y los datos de video de otro aparato y registra los datos de audio y los datos de video en un medio de registro. El aparato 940 de registro y reproducción decodifica y transmite los datos de audio y los datos de video registrados en el medio de registro, de modo tal que puede ser llevada a cabo la visualización de imágenes o la transmisión de audio en un aparato de monitor o los similares .
El aparato 940 de registro y reproducción incluye un sintonizador 941, una unidad 942 de interfaz externa, un codificador 943, un unidad 944 de HDD (Unidad de Disco Duro), un lector 945 de discos, un selector 946, un decodificador 947, una unidad 948 de OSD (Despliegue en Pantalla), una unidad 949 de control, y una unidad 950 interfaz de usuario.
El sintonizador 941 sintoniza un canal deseado de una señal de radiodifusión recibida por la antena (no se ilustra) . El sintonizador 941 transmite al selector 946 el flujo de bitios codificado, obtenido al decodificar la señal recibida del canal deseado.
La unidad 942 de interfaz externa se configura para incluir al menos una interfaz IEEE 1394, una unidad de interfaz de red, una interfaz USB, y una interfaz de memoria de destello. La unidad 942 de interfaz externa es una interfaz usada para conectar un aparato eterno, una red, una tarjeta de memoria, o las similares y recibe datos tales como datos de video o datos de voz a ser registrados.
El codificador 943 codifica los datos de video o los datos de voz de acuerdo con un esquema predeterminado, cuando los datos de video o los datos de voz suministrados desde la unidad 942 de interfaz externa no están codificados, y transmite el flujo de bitios codificado al selector 946.
La unidad 944 de HDD registra los datos del contenido, tales como el video, la voz, o los similares, varios programas y otros datos en un disco duro integrado y lee los datos del contenido, los programas, y los otros datos desde el disco duro en el momento de la reproducción o los similares.
El lector 945 de discos registra y reproduce una señal en un disco óptico instalado. El disco óptico es, por ejemplo, un disco DVD (DVD-Video, DVD-RA , DVD-R, DVD-RW, DVD+R, DVD+RW, o los similares) o un disco Blu-ray.
El selector 946 selecciona un flujo de bitios codificado del sintonizador 941 o el codificador 943 en el momento del registro del video o la voz y suministra el flujo de bitios codificado a uno de la unidad 944 de HDD y el lector 945 de
discos. El selector 946 suministra al decodificador 947 el flujo de bitios codificado, transmitido desde la unidad 944 de HDD o el lector 945 de discos, en el momento de la reproducción del video o la voz.
El decodificador 947 lleva a cabo un proceso de decodificación sobre el flujo de bitios codificado. El decodificador 947 suministra a la unidad 948 de OSD los datos de video generados al llevar a cabo el proceso de decodificación. El decodificador 947 transmite los datos de voz generados al llevar a cabo el proceso de decodificación.
La unidad 948 de OSD genera los datos de video para desplegar una pantalla de menú o los similares, para la selección o los similares de elementos, traslapa los datos de video con los datos de datos de video transmitidos desde el decodificador 947, y transmite los datos de video traslapados.
La unidad 950 interfaz de usuario se conecta a la unidad 949 de control. La unidad 950 interfaz de usuario se configura para incluir un interruptor de manipulación o una unidad de recepción de señales de control remoto y suministra a la unidad 949 de control una señal de manipulación de acuerdo con la manipulación del usuario.
La unidad 949 de control se configura usando una CPU, una memoria o las similares. La memoria almacena los programas a ser ejecutados por la CPU y varios tipos de datos necesarios para que la CPU lleve a cabo los procesos. Los programas
almacenados en la memoria son leídos y ejecutados por la CPU a una temporización predeterminada, como por ejemplo en el momento de la activación del aparato 940 de registro y reproducción. La CPU ejecuta los programas para controlar cada unidad, de modo tal que el aparato 940 de registro y reproducción opere de acuerdo con la manipulación del usuario.
En el aparato de registro y reproducción configurado de esta forma, la función del dispositivo de decodificación (método de decodificación) de la presente solicitud se instala en el decodificador 947. Por lo tanto, es posible decodificar el flujo codificado para el cual se reduce la cantidad de codificación del flujo codificado cuando la información relacionada con la imagen de profundidad se incluye en el flujo codificado.
Ejemplo de la Configuración del Aparato de Formación de
Imágenes
La Fig. 28 ejemplifica la configuración global de un aparato de formación de imágenes al cual se aplica la presente tecnología. El aparato 960 de formación de imágenes somete y despliega una imagen del objetivo o registra la imagen del objetivo como datos de imagen, en un medio de registro.
El aparato 960 de formación de imágenes incluye un bloque 961 óptico, una unidad 962 de formación de imágenes, una unidad 963 de procesamiento de señales de la cámara, una unidad 964 de procesamiento de datos de imagen, una unidad 965
de visualización, una unidad 966 de interfaz externa, una unidad 967 de memoria, un lector 968 de medios, una unidad 969 de OSD y una unidad 970 de control. Una unidad 971 de interfaz de usuario se conecta a la unidad 970 de control. La unidad 964 de procesamiento de datos de imagen, la unidad 966 de interfaz externa, la unidad 967 de memoria, el lector 968 de medios, la unidad 969 de OSD, la unidad 970 de control y los similares se conectan entre si a través de una linea 972 común de comunicación.
El bloque 961 óptico se configura usando una lente de enfoque, un mecanismo de apertura, y los similares. El bloque 961 óptico forma una imagen óptica de un objetivo sobre una superficie de formación de imágenes de la unidad 962 de formación de imágenes. La unidad 962 de formación de imágenes se configura usando un detector de imágenes CCD o CMOS, genera una señal eléctrica de acuerdo con la imagen óptica, a través de conversión fotoeléctrica, y suministra la señal eléctrica a la unidad 963 de procesamiento de señales de la cámara.
La unidad 963 de procesamiento de señales de la cámara lleva a cabo varios tipos de procesamientos de señales de la cámara tales como la corrección del codo, la corrección de la gama, la corrección del color, sobre la señal eléctrica suministrada desde la unidad 962 de formación de imágenes. La unidad 963 de procesamiento de señales de la cámara suministra los datos de la imagen, después del procesamiento de señales
de la cámara, a la unidad 964 de procesamiento de datos de imagen.
La unidad 964 de procesamiento de datos de imagen lleva a cabo un proceso de codificación sobre los datos de imagen suministrados desde la unidad 963 de procesamiento de señales de la cámara. La unidad 964 de procesamiento de datos de imagen sumista a la unidad 966 de interfaz externa o al lector 968 de medios los datos codificados generados al llevar a cabo el proceso de codificación. La unidad 964 de procesamiento de datos de imagen lleva a cabo un proceso de decodificación sobre los datos codificados suministrados desde la unidad 966 de interfaz externa o el lector 968 de medios. La unidad 964 de procesamiento de datos de imagen suministra a la unidad 965 de visualización los datos de imagen generados al llevar a cabo el proceso de decodificación. La unidad 964 de procesamiento de datos de imagen suministra a la unidad 965 de visualización los datos de imagen suministrados desde la unidad 963 de procesamiento de señales de la cámara, permite que los datos de visualización adquiridos desde la unidad 969 de OSD se traslapen con los datos de imagen, y suministra los datos de traslape a la unidad 965 de visualización.
La unidad 969 de OSD genera los datos de visualización, como por ejemplo una pantalla de menú, iconos, o los similares, formados por símbolos letras, o figuras y transmite los datos de visualización a la unidad 964 de procesamiento de
datos de imagen.
La unidad 966 de interfaz externa se configura para incluir, por ejemplo, una terminal de entrada/salida de USB y se conecta a una impresora, cuando la imagen se imprime. Un lector se conecta a la unidad 966 de interfaz externa, cuando sea necesario, un medio removible, tal como un disco magnético o un disco óptico, se instala de forma apropiada, y los programas de computadora leídos desde el medio removible se instalan, cuando es necesario. La unidad 966 de interfaz externa incluye una interfaz de red conectada a una red predeterminada, tal como una LAN o la Red Internacional. Por ejemplo, la unidad 970 de control puede leer los datos codificados desde la unidad 967 de memoria de acuerdo con las instrucciones de la unidad 971 de interfaz de usuario y suministra los datos codificados desde la unidad 966 de interfaz externa a otros aparatos conectados a través de la red. La unidad 970 de control puede adquirir los datos codificados o los datos de imagen suministrados desde otros aparatos a través de una red, a través de la unidad 966 de interfaz externa y suministra los datos codificados o los datos de imagen a la unidad 964 de procesamiento de datos de imagen .
Como el medio de registro leído por el lector 968 de medios, por ejemplo, se usa cualquier medio removible legible/escribible, como por ejemplo discos magnéticos, discos
magnetópticos, discos ópticos o memorias de semiconductores. Puede ser usado cualquier tipo de medio removible como el medio de registro. Puede ser usado un medio de cinta, puede ser usado un disco, o puede ser usada una tarjeta de memoria. Por supuesto, puede ser usada una tarjeta IC sin contacto o las similares.
El lector 968 de medios puede estar integrado con un medio de registro y por lo tanto puede estar configurado por ejemplo, por un medio de almacenamiento no portátil, tal como una unidad de disco duro integrada o un SSD (Unidad en Estado Sólido) .
La unidad 970 de control se configura usando una CPU, una memoria, o las similares. La memoria almacena programas a ser ejecutados por la CPU y varios tipos de datos, necesarios para que la CPU lleve a cabo los procesos. Los programas almacenados en la memoria son leídos y ejecutados por la CPU en una temporización predeterminada, como por ejemplo en el momento de la activación del aparato 960 de formación de imágenes. El CPU ejecuta los programas para controlar cada unidad, de modo tal que el aparato 960 de formación de imágenes opere de acuerdo con la manipulación del usuario.
En el aparato de formación de imágenes configurado de esta forma, las funciones del dispositivo de codificación (método de codificación) y el dispositivo de decodificación (método de decodificación) de la presente solicitud se
instalan en la unidad 964 de procesamiento de datos de imagen. Por lo tanto, es posible reducir la cantidad de codificación del flujo codificado cuando la información relacionada con la imagen de profundidad se incluye en el flujo codificado. Además, es posible decodificar el flujo codificado para el cual se reduce la cantidad de codificación del flujo codificado, cuando la información relacionada con la imagen de profundidad se incluye en el flujo codificado.
Las modalidades de la presente tecnología no se limitan a las modalidades descritas anteriormente, sino que pueden ser modificadas de varias formas dentro del ámbito sin apartarse del aspecto principal de la presente tecnología.
La presente tecnología puede ser configura de la siguiente manera.
(1)
Un dispositivo de codificación incluye: una unidad de establecimiento, que establece la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad, como un conjunto de parámetros diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen; una unidad de codificación, que codifica la imagen de profundidad para generar los datos codificados; y una unidad de transmisión, que transmite el flujo codificado que incluye el conjunto de parámetros, el cual se establece por la unidad de
establecimiento y los datos codificados generados por la unidad de codificación.
(2)
En el dispositivo de codificación descrito en el punto (1) anterior, la unidad de establecimiento puede establecer cualquier ID que identifica de forma univoca los parámetros establecidos en el conjunto de parámetros. La unidad de transmisión puede transmitir el flujo codificado que incluye el ID correspondiente a la imagen de profundidad.
(3)
En el dispositivo de codificación descrito en el punto (2) anterior, la unidad de establecimiento puede establecer el ID correspondiente a la imagen de profundidad de una unidad de sección, en el encabezamiento de la sección de la imagen de profundidad. La unidad de transmisión puede transmitir el flujo codificado que incluye el encabezamiento de la sección establecido por la unidad de establecimiento.
(4)
En el dispositivo de codificación descrito en cualquiera de los puntos (1) a (3) anteriores, la unidad de establecimiento puede llevar a cabo la codificación diferencial sobre la información de la imagen de profundidad y establece el resultado de la codificación diferencial de la información de la imagen de profundidad como el conjunto de parámetros.
(5)
En el dispositivo de codificación descrito en cualquiera de los puntos (1) a (4) anteriores, la unidad de codificación puede codificar la imagen de profundidad con base en la información de la imagen de profundidad.
(6)
En el dispositivo de codificación descrito en cualquiera de los puntos (1) a (5) anteriores, la información de la imagen de profundidad puede incluir el valor máximo y el valor mínimo de un valor de pixel de la imagen de profundidad y la distancia entre las cámaras que capturan la imagen de profundidad.
(7)
En el dispositivo de codificación descrito en cualquiera de los puntos (1) a (6) anteriores, un tipo de unidad de NAL (Capa de Abstracción de Red) diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen pueden ser establecida en el conjunto de parámetros.
(8)
En el dispositivo de codificación descrito en cualquiera de los puntos (1) a (7) anteriores, la unidad de establecimiento puede establecer la información de identificación que identifica la presencia de la información de la imagen de profundidad. La unidad de transmisión puede trasmitir el flujo codificado que incluye la información de
identificación establecida por la unidad de establecimiento. (9)
Un método de codificación incluye: una etapa de establecimiento, para establecer la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad, como un conjunto de parámetros diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen; y una etapa de codificación, para codificar la imagen de profundidad, para generar los datos codificados; y una etapa de transmisión, para transmitir un flujo codificado que incluye el conjunto de parámetros, el cual se establece en el proceso de la etapa de establecimiento y los datos codificados generados en el proceso de la etapa de codificación, la cual se lleva a cabo por el dispositivo de codificación.
(10)
Un dispositivo de decodificación incluye: una unidad de adquisición que adquiere el conjunto de parámetros y los datos codificados de un flujo codificado que incluye el conjunto de parámetros en el cual se establece la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad y la cual es diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen y un conjunto de parámetros de la imagen y los datos codificados de la imagen de profundidad; una unidad de
procesamiento de análisis sintáctico que analiza sintácticamente la información de la imagen de profundidad desde el conjunto de parámetros adquirido por la unidad de adquisición; y una unidad de decodificación que decodifica los datos codificados adquiridos por la unidad de adquisición.
(11)
En el dispositivo de decodificación descrito en el punto
(10) anterior, un ID que identifica de forma univoca el conjunto de parámetros, puede ser establecido en el conjunto de parámetros. El flujo codificado puede incluir el ID correspondiente a la imagen de profundidad.
(12)
En el dispositivo de decodificación descrito en el punto
(11) , el flujo codificado incluye el encabezamiento de la sección en la cual se establece el ID correspondiente a la imagen de profundidad de una unidad de sección.
(13)
El dispositivo de decodificación descrito en cualquiera de los puntos (10) a (12) anteriores puede incluir además una unidad de generación que genera la información de la imagen de profundidad, al decodificar el resultado de la codificación diferencial de la información de la imagen de profundidad. El flujo codificado puede incluir el conjunto de parámetros en el cual se establece el resultado de la codificación diferencial de la información de la imagen de profundidad. La unidad de
generación puede generar la información de la imagen de profundidad al decodificar el resultado de la codificación diferencial de la información de la imagen de profundidad establecida como el conjunto de parámetros.
(14)
En el dispositivo de decodificación descrito en cualquiera de los puntos (10) a (13) anteriores, la unidad de decodificación puede decodificar los datos codificados, con base en la información de la imagen de profundidad analizada sintácticamente por la unidad de procesamiento de análisis sintáctica .
(15)
En el dispositivo de decodificación descrito en cualquiera de los puntos (10) a (14) anteriores, la información de la imagen de profundidad puede incluir un valor máximo y un valor mínimo de un valor de pixel de la imagen de profundidad y la distancia entre las cámaras que capturan la imagen de profundidad.
(16)
En el dispositivo de decodificación descrito en cualquiera de los puntos (10) a (15) anteriores, un tipo de unidad de NAL (Capa de Abstracción de Red) diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen se establece en el conjunto de parámetros.
(17)
En el dispositivo de decodificación descrito en cualquiera de los puntos (10) a (16) anteriores, el flujo codificado puede incluir la información de identificación que identifica la presencia de la información de la imagen de profundidad.
(18)
Un método de decodificación incluye: una etapa de adquisición, para adquirir el conjunto de parámetros y los datos codificados de un flujo codificado que incluye el conjunto de parámetros en el cual se establece la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad, y la cual es diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen y los datos codificados de la imagen de profundidad; una etapa de procesamiento de análisis sintáctico para analizar sintácticamente la información de la imagen de profundidad del conjunto de parámetros adquirido en el proceso de la etapa de adquisición; y una etapa de decodificación, para decodificar los datos codificados adquiridos en el proceso de la etapa de adquisición, la cual se lleva a cabo por el dispositivo de decodificación .
LISTA DE NÚMEROS DE REFERENCIA
50 DISPOSITIVO DE CODIFICACIÓN, 51 UNIDAD DE CAPTURA DE
IMÁGENES EN COLOR, DE VISTAS MÚLTIPLES, 52 UNIDAD DE CORRECCIÓN DE IMÁGENES EN COLOR, DE VISTAS MÚLTIPLES, 53 UNIDAD DE GENERACIÓN DE IMÁGENES DE PROFUNDIDAD, DE VISTAS MÚLTIPLES, 54, UNIDAD DE GENERACIÓN DE INFORMACIÓN DE LAS IMÁGENES DE PROFUNDIDAD, 55 UNIDAD DE CODIFICACIÓN DE IMÁGENES DE VISTAS MÚLTIPLES, 61 UNIDAD DE CODIFICACIÓN DEL SPS, 62 UNIDAD DE CODIFICACIÓN DEL PPS, 63 UNIDAD DE CODIFICACIÓN DEL DPS, 64 UNIDAD DE CODIFICACIÓN DEL ENCABEZAMIENTO DE LA SECCIÓN, 65 UNIDAD DE CODIFICACIÓN DE LA SECCIÓN, 80 DISPOSITIVO DE DECODIFICACION, 81 UNIDAD DE DECODIFICACION DE IMÁGENES DE VISTAS MÚLTIPLES, 82 UNIDAD DE SÍNTESIS DEL PUNTO DE VISTA, 101 UNIDAD DE DECODIFICACION DEL SPS, 102 UNIDAD DE DECODIFICACION DEL PPS, 103 UNIDAD DE DECODIFICACION DEL DPS, 104 UNIDAD DE DECODIFICACION DEL ENCABEZAMIENTO DE LA SECCIÓN, 105 UNIDAD DE DECODIFICACION DE LA SECCIÓN.
Claims (18)
1. Un dispositivo de codificación, caracterizado porque comprende : una unidad de establecimiento, que establece la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad, como un conjunto de parámetros diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen; una unidad de codificación, que codifica la imagen de profundidad para generar los datos codificados; y una unidad de transmisión, que transmite el flujo codificado que incluye el conjunto de parámetros, el cual se establece por la unidad de establecimiento y los datos codificados generados por la unidad de codificación.
2. El dispositivo de codificación de acuerdo con la reivindicación 1, caracterizado porque, la unidad de establecimiento puede establecer cualquier ID que identifique de forma univoca los parámetros establecidos en el conjunto de parámetros, y en donde la unidad de transmisión puede transmitir el flujo codificado que incluye el ID correspondiente a la imagen de profundidad.
3. El dispositivo de codificación de acuerdo con la reivindicación 2, caracterizado porque, la unidad de establecimiento puede establecer el ID correspondiente a la imagen de profundidad de una unidad de sección, en el encabezamiento de la sección de la imagen de profundidad, y en donde, la unidad de transmisión puede transmitir el flujo codificado que incluye el encabezamiento de la sección establecido por la unidad de establecimiento.
4. El dispositivo de codificación de acuerdo con la reivindicación 1, caracterizado porque, la unidad de establecimiento puede llevar a cabo la codificación diferencial sobre la información de la imagen de profundidad y establece el resultado de la codificación diferencial de la información de la imagen de profundidad como el conjunto de parámetros .
5. El dispositivo de codificación de acuerdo con la reivindicación 1, caracterizado porque, la unidad de codificación puede codificar la imagen de profundidad con base en la información de la imagen de profundidad.
6. El dispositivo de codificación de acuerdo con la reivindicación 1, caracterizado porque, la información de la imagen de profundidad puede incluir el valor máximo y el valor mínimo de un valor de pixel de la imagen de profundidad y la distancia entre las cámaras que capturan la imagen de profundidad.
7. El dispositivo de codificación de acuerdo con la reivindicación 1, caracterizado porque, un tipo de unidad de NAL (Capa de Abstracción de Red) diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen pueden ser establecida en el conjunto de parámetros.
8. El dispositivo de codificación de acuerdo con la reivindicación 1, caracterizado porque, la unidad de establecimiento puede establecer la información de identificación que identifica la presencia de la información de la imagen de profundidad, y en donde la unidad de transmisión puede trasmitir el flujo codificado que incluye la información de identificación establecida por la unidad de establecimiento.
9. Un método de codificación de un dispositivo de codificación, caracterizado porque comprende: una etapa de establecimiento, para establecer la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad, como un conjunto de parámetros diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen; y una etapa de codificación, para codificar la imagen de profundidad, para generar los datos codificados; y una etapa de transmisión, para transmitir un flujo codificado que incluye el conjunto de parámetros, el cual se establece en el proceso de la etapa de establecimiento y los datos codificados generados en el proceso de la etapa de codificación.
10. Un dispositivo de decodificación, caracterizado porque comprende: una unidad de adquisición que adquiere el conjunto de parámetros y los datos codificados de un flujo codificado que incluye el conjunto de parámetros en el cual se establece la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad, y el cual es diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen y los datos codificados de la imagen de profundidad; una unidad de procesamiento de análisis sintáctico que analiza sintácticamente la información de la imagen de profundidad desde el conjunto de parámetros adquirido por la unidad de adquisición; y una unidad de decodificación que decodifica los datos codificados adquiridos por la unidad de adquisición.
11. El dispositivo de decodificación de acuerdo con la reivindicación 10, caracterizado porque, un ID que identifica de forma univoca el conjunto de parámetros, puede ser establecido en el conjunto de parámetros, y en donde el flujo codificado puede incluir el ID correspondiente a la imagen de profundidad.
12. El dispositivo de decodificación de acuerdo con la reivindicación 11, caracterizado porque, el flujo codificado incluye el encabezamiento de la sección en la cual se establece el ID correspondiente a la imagen de profundidad de una unidad de sección .
13. El dispositivo de decodificación de acuerdo con la reivindicación 10, caracterizado porque comprende además: una unidad de generación que genera la información de la imagen de profundidad, al decodificar el resultado de la codificación diferencial de la información de la imagen de profundidad, en donde, el flujo codificado incluye el conjunto de parámetros en el cual se establece el resultado de la codificación diferencial de la información de la imagen de profundidad, y en donde la unidad de generación genera la información de la imagen de profundidad al decodificar el resultado de la codificación diferencial de la información de la imagen de profundidad establecida como el conjunto de parámetros.
14. El dispositivo de decodificación de acuerdo con la reivindicación 10, caracterizado porque, la unidad de decodificación decodifica los datos codificados, con base en la información de la imagen de profundidad analizada sintácticamente por la unidad de procesamiento de análisis sintáctico.
15. El dispositivo de decodificación de acuerdo con la reivindicación 10, caracterizado porque, la información de la imagen de profundidad incluye un valor máximo y un valor mínimo de un valor de pixel de la imagen de profundidad y la distancia entre las cámaras que capturan la imagen de profundidad.
16. El dispositivo de decodificación de acuerdo con la reivindicación 10, caracterizado porque, un tipo de unidad de NAL (Capa de Abstracción de Red) diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen se establece en el conjunto de parámetros.
17. El dispositivo de decodificación de acuerdo con la reivindicación 10, caracterizado porque, el flujo codificado incluye la información de identificación que identifica la presencia de la información de la imagen de profundidad.
18. Un método de decodificación de un dispositivo de decodificación, caracterizado porque comprende: una etapa de adquisición, para adquirir el conjunto de parámetros y los datos codificados de un flujo codificado que incluye el conjunto de parámetros en el cual se establece la información de la imagen de profundidad, la cual es la información relacionada con la imagen de profundidad, y la cual es diferente del conjunto de parámetros de la secuencia y el conjunto de parámetros de la imagen y los datos codificados de la imagen de profundidad; una etapa de procesamiento de análisis sintáctico para analizar sintácticamente la información de la imagen de profundidad del conjunto de parámetros adquirido en el proceso de la etapa de adquisición; y una etapa de decodificación, para decodificar los datos codificados adquiridos en el proceso de la etapa de adquisición .
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012019025 | 2012-01-31 | ||
| PCT/JP2013/051265 WO2013115025A1 (ja) | 2012-01-31 | 2013-01-23 | 符号化装置および符号化方法、並びに、復号装置および復号方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| MX2014008979A true MX2014008979A (es) | 2014-08-27 |
Family
ID=48905067
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| MX2014008979A MX2014008979A (es) | 2012-01-31 | 2013-01-23 | Dispositivo de codificacion y metodo de codificacion, y dispositivo de codificacion y metodo de decodificacion. |
Country Status (13)
| Country | Link |
|---|---|
| US (2) | US10085007B2 (es) |
| EP (1) | EP2811741A4 (es) |
| JP (2) | JP5975301B2 (es) |
| KR (1) | KR20140123051A (es) |
| CN (2) | CN104067615B (es) |
| AU (1) | AU2013216395A1 (es) |
| BR (1) | BR112014018291A8 (es) |
| CA (1) | CA2860750A1 (es) |
| MX (1) | MX2014008979A (es) |
| PH (1) | PH12014501683A1 (es) |
| RU (1) | RU2014130727A (es) |
| TW (1) | TW201342884A (es) |
| WO (1) | WO2013115025A1 (es) |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| SG11201404509QA (en) | 2012-02-01 | 2014-08-28 | Nokia Corp | Method and apparatus for video coding |
| JP2013198059A (ja) * | 2012-03-22 | 2013-09-30 | Sharp Corp | 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム |
| WO2015053593A1 (ko) * | 2013-10-12 | 2015-04-16 | 삼성전자 주식회사 | 부가 영상을 부호화하기 위한 스케일러블 비디오 부호화 방법 및 장치, 부가 영상을 복호화하기 위한 스케일러블 비디오 복호화 방법 및 장치 |
| JP6571646B2 (ja) | 2013-10-18 | 2019-09-04 | エルジー エレクトロニクス インコーポレイティド | マルチビュービデオのデコード方法及び装置 |
| CN108616748A (zh) * | 2017-01-06 | 2018-10-02 | 科通环宇(北京)科技有限公司 | 一种码流及其封装方法、解码方法及装置 |
| US11348265B1 (en) | 2017-09-15 | 2022-05-31 | Snap Inc. | Computing a point cloud from stitched images |
| CA3100316A1 (en) * | 2018-05-15 | 2019-11-21 | Sharp Kabushiki Kaisha | Image encoding device, encoded stream extraction device, and image decoding device |
| BR112022004873A2 (pt) * | 2019-09-24 | 2022-06-07 | Huawei Tech Co Ltd | Método implementado por decodificador, mídia legível por computador não transitória e dispositivo de decodificação |
Family Cites Families (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100977193B1 (ko) * | 2002-04-25 | 2010-08-20 | 샤프 가부시키가이샤 | 화상 데이터 생성 장치, 화상 데이터 재생 장치, 및 화상데이터 기록 매체 |
| US20070098083A1 (en) | 2005-10-20 | 2007-05-03 | Visharam Mohammed Z | Supporting fidelity range extensions in advanced video codec file format |
| EP1820090A2 (en) * | 2004-10-21 | 2007-08-22 | Sony Electronics, Inc. | Supporting fidelity range extensions in advanced video codec file format |
| CN101416149A (zh) | 2004-10-21 | 2009-04-22 | 索尼电子有限公司 | 以高级视频编解码器文件格式支持保真度范围扩展 |
| KR101244911B1 (ko) * | 2005-10-11 | 2013-03-18 | 삼성전자주식회사 | 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체 |
| ZA200807023B (en) * | 2006-03-29 | 2009-11-25 | Thomson Licensing | Multi-view video coding method and device |
| CN101669367A (zh) | 2007-03-02 | 2010-03-10 | Lg电子株式会社 | 用于解码/编码视频信号的方法及设备 |
| US8494046B2 (en) | 2007-03-23 | 2013-07-23 | Lg Electronics Inc. | Method and an apparatus for decoding/encoding a video signal by performing illumination compensation |
| CN101690220B (zh) * | 2007-04-25 | 2013-09-25 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
| KR101260613B1 (ko) | 2008-12-26 | 2013-05-03 | 닛뽕빅터 가부시키가이샤 | 화상 부호화 장치, 화상 부호화 방법 및 그 프로그램 및 화상 복호화 장치, 화상 복호화 방법 및 그 프로그램 |
| JP2010157824A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像符号化装置、画像符号化方法およびそのプログラム |
| JP2010157826A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像復号装置、画像符復号方法およびそのプログラム |
| EP2387243A4 (en) | 2009-01-12 | 2012-12-26 | Lg Electronics Inc | DEPTH INFORMATION USING VIDEO SIGNAL PROCESSING METHOD AND DEVICE |
| US8457155B2 (en) * | 2009-09-11 | 2013-06-04 | Nokia Corporation | Encoding and decoding a multi-view video signal |
| JPWO2013031575A1 (ja) * | 2011-08-31 | 2015-03-23 | ソニー株式会社 | 画像処理装置および画像処理方法 |
-
2013
- 2013-01-16 TW TW102101632A patent/TW201342884A/zh unknown
- 2013-01-23 CN CN201380006563.5A patent/CN104067615B/zh not_active Expired - Fee Related
- 2013-01-23 AU AU2013216395A patent/AU2013216395A1/en not_active Abandoned
- 2013-01-23 CN CN201510050838.6A patent/CN104683813B/zh not_active Expired - Fee Related
- 2013-01-23 BR BR112014018291A patent/BR112014018291A8/pt not_active IP Right Cessation
- 2013-01-23 JP JP2013556335A patent/JP5975301B2/ja not_active Expired - Fee Related
- 2013-01-23 CA CA2860750A patent/CA2860750A1/en not_active Abandoned
- 2013-01-23 MX MX2014008979A patent/MX2014008979A/es not_active Application Discontinuation
- 2013-01-23 KR KR1020147020149A patent/KR20140123051A/ko not_active Ceased
- 2013-01-23 EP EP13743221.7A patent/EP2811741A4/en not_active Withdrawn
- 2013-01-23 WO PCT/JP2013/051265 patent/WO2013115025A1/ja not_active Ceased
- 2013-01-23 RU RU2014130727A patent/RU2014130727A/ru unknown
- 2013-01-23 US US14/373,949 patent/US10085007B2/en active Active
-
2014
- 2014-07-24 PH PH12014501683A patent/PH12014501683A1/en unknown
-
2016
- 2016-07-19 JP JP2016141552A patent/JP6206559B2/ja not_active Expired - Fee Related
-
2018
- 2018-07-13 US US16/034,985 patent/US10205927B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| US10205927B2 (en) | 2019-02-12 |
| JP2016195456A (ja) | 2016-11-17 |
| US20180343437A1 (en) | 2018-11-29 |
| CN104067615B (zh) | 2017-10-24 |
| JP5975301B2 (ja) | 2016-08-23 |
| JPWO2013115025A1 (ja) | 2015-05-11 |
| WO2013115025A1 (ja) | 2013-08-08 |
| PH12014501683A1 (en) | 2014-11-10 |
| US10085007B2 (en) | 2018-09-25 |
| CA2860750A1 (en) | 2013-08-08 |
| TW201342884A (zh) | 2013-10-16 |
| RU2014130727A (ru) | 2016-02-10 |
| US20150042753A1 (en) | 2015-02-12 |
| CN104067615A (zh) | 2014-09-24 |
| KR20140123051A (ko) | 2014-10-21 |
| AU2013216395A1 (en) | 2014-07-10 |
| EP2811741A4 (en) | 2015-06-24 |
| EP2811741A1 (en) | 2014-12-10 |
| CN104683813A (zh) | 2015-06-03 |
| BR112014018291A2 (es) | 2017-06-20 |
| CN104683813B (zh) | 2017-10-10 |
| BR112014018291A8 (pt) | 2017-07-11 |
| JP6206559B2 (ja) | 2017-10-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| AU2019201098B2 (en) | Decoding device and decoding method, and coding device and coding method | |
| KR100813961B1 (ko) | 영상 수신장치 | |
| US10218958B2 (en) | Image processing apparatus and image processing method | |
| US10205927B2 (en) | Encoding device and encoding method, and decoding device and decoding method | |
| US9361734B2 (en) | Image processing device and image processing method | |
| US9235749B2 (en) | Image processing device and image processing method | |
| US9661301B2 (en) | Image processing device and image processing method | |
| US20130195347A1 (en) | Image processing apparatus and image processing method | |
| US9979961B2 (en) | Image processing device and image processing method | |
| US10122986B2 (en) | Image processing device and image processing method | |
| KR101086437B1 (ko) | 영상 송신 및 수신 방법과 장치 및 이의 전송 스트림 구조 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FA | Abandonment or withdrawal |