MX2012005359A - Dispositivo de transmision de datos de imagenes estereoscopicas, metodo de transmision de datos de imagenes estereoscopicas, y dispositivo de recepcion de datos de imagenes estereoscopicas. - Google Patents
Dispositivo de transmision de datos de imagenes estereoscopicas, metodo de transmision de datos de imagenes estereoscopicas, y dispositivo de recepcion de datos de imagenes estereoscopicas.Info
- Publication number
- MX2012005359A MX2012005359A MX2012005359A MX2012005359A MX2012005359A MX 2012005359 A MX2012005359 A MX 2012005359A MX 2012005359 A MX2012005359 A MX 2012005359A MX 2012005359 A MX2012005359 A MX 2012005359A MX 2012005359 A MX2012005359 A MX 2012005359A
- Authority
- MX
- Mexico
- Prior art keywords
- data
- image data
- disparity
- disparity information
- stereoscopic image
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/08—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/08—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
- H04N7/081—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division the additional information signals being transmitted by means of a subcarrier
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/23605—Creation or processing of packetized elementary streams [PES]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/23614—Multiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4343—Extraction or processing of packetized elementary streams [PES]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4345—Extraction or processing of SI, e.g. extracting service information from an MPEG stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4348—Demultiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/005—Aspects relating to the "3D+depth" image format
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/08—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
- H04N7/083—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical and the horizontal blanking interval, e.g. MAC data signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Library & Information Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
[Problema) Para permitir la consistencia en el sentido de la perspectiva que se retendrá fácilmente entre cada objeto en una imagen y la información sobrepuesta, por ejemplo, una OSD u otra información gráfica, con la visualización de la imagen estereoscópica. [Solución] Una unidad (122) de creación del conjunto de información de disparidad crea un conjunto de información de disparidad para una posición de píxel predeterminada de acuerdo con un mapa de disparidad. La posición de píxel predeterminada por ejemplo, es la posición de pixel en la cual el valor de información de disparidad es el más alto, es decir, la posición de pixel que se percibe es la más cercana. El conjunto de información de disparidad incluye datos de posición que indican la porción relativa con respecto a toda la imagen, y los datos de disparidad para esta posición. El conjunto de información de disparidad se sincroniza de manera espacial con datos de imágenes estereoscópicas. Este conjunto de información de disparidad es independiente de la resolución de la imagen estereoscópica, e independiente del tamaño del monitor y la resolución de visualización del monitor. En cada período obtenido al dividir igualmente el período de programa de difusión de un programa de difusión predeterminado de manera jerárquica, la unidad (122) de creación del conjunto de información de disparidad crea un conjunto de información de disparidad. El conjunto de información de disparidad se sincroniza temporalmente con los datos de imágenes estereoscópicas.
Description
DISPOSITIVO DE TRANSMISIÓN DE DATOS DE IMÁGENES
ESTEREOSCÓPICAS, MÉTODO DE TRANSMISIÓN DE DATOS DE IMÁGENES ESTEREOSCÓPICAS, Y DISPOSITIVO DE RECEPCIÓN DE DATOS DE
IMÁGENES ESTEREOSCÓPICAS
CAMPO TÉCNICO
La presente invención se refiere a un dispositivo de transmisión de datos de imágenes estereoscópicas, un método de transmisión de datos de imágenes estereoscópicas, y un dispositivo de recepción de datos de imágenes estereoscópicas, y en forma más particular, a un dispositivo de transmisión de datos de imágenes estereoscópicas que puede desplegar de manera satisfactoria información gráfica incluida en una OSD o similar en el lado de recepción.
TÉCNICA ANTECEDENTE
Por ejemplo, en el Documento de Patente 1, se ha propuesto un sistema de transmisión de datos de imágenes estereoscópicas utilizando ondas de difusión por televisión. En tal caso, se transmiten datos de imágenes estereoscópicas que incluyen datos de imagen de ojo izquierdo y datos de imagen de ojo derecho, y una visualización de imagen estereoscópica utilizando paralaje binocular se realiza en un receptor de televisión.
La Figura 68 ilustra la relación entre una porción de visualización horizontal de un objeto (cuerpo) en una pantalla y una posición de reproducción de una imagen estereoscópica de la misma en una visualización de imagen estereoscópica utilizando paralaje binocular. Por ejemplo, para que un objeto A del cual se despliega una imagen izquierda La se desplace al lado derecho y se despliegue una imagen derecha Ra y se desplace al lado izquierdo como se ilustra en la pantalla en la figura, los campos visuales izquierdo y derecho se entrecruzan entre sí en un lado frontal más alejado que la superficie de pantalla, por lo que la posición de reproducción de la imagen estereoscópica se ubica en un lado frontal más alejado que la superficie de pantalla.
Además, por ejemplo, para que un objeto B del cual se despliega una imagen izquierda Lb y una imagen derecha Rb en la misma posición como se ilustra en la pantalla en la figura, los campos visuales izquierdo y derecho se entrecruzan entre sí en la superficie de pantalla, por lo que la posición de reproducción de la imagen estereoscópica se encuentra en la superficie de pantalla. Además, por ejemplo, para que un objeto C del cual se despliega una imagen izquierda Le para desplazarse al lado izquierdo y se despliega una imagen derecha para desplazarse al lado derecho como se ilustra en la pantalla en la figura, los campos visuales izquierdo y derecho se entrecruzan entre sí en el lado interno de la superficie de pantalla, por lo que la posición de reproducción de la imagen estereoscópica se encuentra en el lado interno más alejado de la superficie de pantalla .
LISTA DE CITAS DOCUMENTO DE PATENTE
Documento de Patente 1: Solicitud de Patente Japonesa Abierta al Público No. 2005-6114
COMPENDIO DE LA INVENCIÓN
PROBLEMAS QUE SERÁN RESUELTOS POR LA INVENCIÓN
Como se describe en lo anterior, en una visualización de imagen estereoscópica, es común que un observador reconozca la perspectiva de una imagen estereoscópica al utilizar un paralaje binocular. También para solapar la información sobre imágenes solapadas, por ejemplo, información gráfica incluida en una visualización en pantalla (OSD) o similar, no sólo una profundidad bidimensional sino también una profundidad tridimensional se espera que se represente de acuerdo con una visualización de imagen estereoscópica.
Por ejemplo, en un caso donde la información gráfica incluida en una OSD o similar se despliega en una imagen estereoscópica en una forma solapada (visualización solapada) , a menos que la información gráfica se despliegue en un lado frontal más alejado de un cuerpo (objeto) dentro de una imagen que se encuentra más cercana del observador en términos de perspectiva, el observador puede detectar una contradicción en la perspectiva. En otras palabras, en un caso donde la información gráfica incluida en una OSD o similar se despliega en una imagen en una forma solapada, se espera mantener la consistencia de la perspectiva al realizar ajustes de paralaje de acuerdo co la perspectiva de cada objeto dentro de la imagen.
Un objeto de la presente invención es lograr mantener la consistencia de la perspectiva entre objetos dentro de una imagen en una visualización de información solapada, por ejemplo, información gráfica incluida en una OSD o similar al momento de desplegar una imagen estereoscópica .
SOLUCIÓN A LOS PROBLEMAS
De acuerdo con el concepto de la presente invención, se proporciona un dispositivo de transmisión de datos de imágenes estereoscópicas que incluye: una unidad de salida de datos de imágenes que produce datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho; una unidad de salida de conjunto de información de disparidad que produce un conjunto de información de disparidad para una posición de p xel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado que se produce desde la unidad de salida de datos de imagen; y una unidad de transmisión que transmite los datos de imágenes estereoscópicas producidos desde la unidad de salida de datos de imagen y el conjunto de información de disparidad producido desde la unidad de salida del conjunto de información de disparidad, en donde el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de la posición de píxel predeterminada con respecto a toda una imagen y datos de disparidad para la posición de píxel predeterminada.
De acuerdo con la presente invención, datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho se producen por la unidad de salida de datos de imagen. Además, el conjunto de información de disparidad para una posición de píxel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado se produce por la unidad de salida de conjunto de información de disparidad. Después, los datos de imágenes estereoscópicas y el conjunto de información de disparidad se transmiten por la unidad de transmisión.
El conjunto de información de disparidad incluye datos de posición que representan una posición relativa de una posición de píxel predeterminada con respecto a toda la imagen y los datos de disparidad para la posición de píxel predeterminada. Por consiguiente, el conjunto de información de disparidad sincroniza espacialmente con los datos de imágenes estereoscópicas. Además, este conjunto de información de disparidad es independiente de la resolución de una imagen estereoscópica y también es independiente de la resolución de visualización del monitor o el tamaño del monitor.
En la presente invención, por ejemplo, los datos de posición se forman por datos de dirección que representan una dirección de la posición de píxel predeterminada desde un origen y los datos de distancia que representan una distancia desde el origen hasta la posición de píxel predeterminada. En tal caso, por ejemplo, los datos de visualización pueden ser datos que representan una relación de un valor de la información de disparidad para la posición de píxel predeterminada con la distancia desde el origen o puede ser un valor de la información de disparidad en una resolución de visualización específica, por ejemplo, HD total para la posición de píxel predeterminada.
En la presente invención, por ejemplo, los datos de posición se forman por datos de distancia horizontal que representan una distancia horizontal de la posición de píxel predeterminada desde el origen y datos de distancia vertical que representan una distancia vertical de la posición de píxel predeterminada desde el origen. En tal caso, por ejemplo, los datos de disparidad pueden ser datos que representan una relación de un valor de la información de disparidad para la posición de píxel predeterminada con respecto a la resolución de visualización especifica o un valor de la información de disparidad para la posición de píxel predeterminada en la resolución de visualización específica.
En la presente invención, por ejemplo, el número de posición de píxel predeterminada no se limita a uno pero puede ser dos o más. Por ejemplo, las posiciones de píxel predeterminadas son una primera posición de píxel en la cual un valor de información de disparidad es el máximo y una segunda posición de píxel en la cual el valor de la información de disparidad es mínimo. En tal caso, el lado de recepción puede adquirir un ancho entre el máximo y el mínimo de los valores de información de disparidad, por lo que la profundidad de una imagen estereoscópica puede ajustarse.
En la presente invención, por ejemplo, la unidad de salida del conjunto de información de disparidad produce el conjunto de información de disparidad de cada período dividido adquirido al . dividir igualmente un período del programa predeterminado en una forma jerárquica. Por consiguiente, el conjunto de información de disparidad se sincroniza con los datos de imágenes estereoscópicas en el tiempo .
En la presente invención, por ejemplo, la unidad de transmisión transmite una corriente de transporte que incluye los datos de imágenes estereoscópicas del programa predeterminado producido desde la unidad de transmisión de datos de imagen e inserta un descriptor que incluye el conjunto de información de disparidad producido desde la unidad de salida del conjunto de información de disparidad en una posición predeterminada de la información PSI o la información SI que se inserta en la corriente de transporte. Por consiguiente, en el lado de recepción, un conjunto de información de disparidad puede adquirirse sin importar el descodificador de los datos de imagen.
En la presente invención, por ejemplo, la unidad de transmisión transmite el conjunto de información de disparidad con el que se incluye en una corriente elemental que se utiliza para transmitir información predeterminada. En tal caso, por ejemplo, la otra información es los datos de imágenes estereoscópicas, y el conjunto de información de disparidad puede insertarse en una región de datos de usuario de una sección de encabezado de la corriente elemental . Además, en tal caso, por ejemplo, puede configurarse de manera que la información predeterminada son datos de subtítulos o datos independientes, y la corriente elemental incluye un segmento o un paquete en el cual el · conjunto de información de disparidad se inserta.
Como en lo anterior, de acuerdo con la presente invención, junto con los datos de imágenes estereoscópicas del programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho, un conjunto de información de disparidad para una posición de píxel predeterminada, que corresponde con los datos de imágenes estereoscópicas del programa predeterminado se transmite. Por consiguiente, en el lado de recepción, al utilizar el conjunto de información de disparidad, la información solapada que solapa la imagen de ojo izquierdo y la imagen de ojo derecho, por ejemplo, la información gráfica tal como una OSD para la cual se ha realizado ajuste de disparidad de acuerdo con la perspectiva de cada objeto dentro de una imagen, puede utilizarse. Por lo tanto, en el despliegue de información gráfica tal como una OSD, la consistencia en la perspectiva de cada objeto dentro de la imagen puede mantenerse.
Además, de acuerdo con la presente invención, el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de una posición de píxel predeterminada con respecto a toda la imagen y los datos de disparidad para la posición de píxel predeterminada. Por consiguiente, el conjunto de información de disparidad es independiente de la resolución de una imagen estereoscópica y también es independiente de la resolución de visualización del monitor o el tamaño del monitor. Por lo tanto, en el lado de recepción, el ajuste de disparidad puede realizarse fácilmente al utilizar el conjunto de información de disparidad sin importar la resolución de visualización del monitor o el tamaño del monitor.
Además, de acuerdo con otro concepto de la presente invención, se proporciona un dispositivo de recepción de datos de imágenes estereoscópicas que incluye: una unidad de recepción que recibe datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho y un conjunto de información de disparidad para una posición de píxel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado; una unidad de salida de datos de información solapada que produce datos de la información solapada de ojo izquierdo que corresponde con los datos de imagen de ojo izquierdo que se incluyen en los datos de imágenes es ereoscópicas recibidas por la unidad de recepción y los datos de información solapada de ojo derecho que corresponde con los datos de imagen de ojo derecho que se incluyen en los datos de imágenes estereoscópicas recibidos por la unidad de recepción; y una unidad de solapado de datos que solapa los datos de la información solapada de ojo izquierdo y los datos de la información solapada de ojo derecho, y se producen desde la unidad de salida de datos de información solapada, y los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho incluidos en los datos de imágenes estereoscópicas recibidos por la unidad de recepción entre si, en donde el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de la posición de píxel predeterminada con respecto a toda la imagen y los datos de disparidad para la posición de píxel predeterminada, y en donde la unidad de salida de datos de información solapada hace que la disparidad se presente entre la información solapada de ojo izquierdo y la información solapada de ojo derecho basándose en el conjunto de información de disparidad recibido por la unidad de recepción.
Este concepto puede realizarse en un formato de archivo general diferente a la corriente de transporte, y la información de disparidad puede insertarse en el interior de la corriente.
De acuerdo con la presente invención, datos de imágenes estereoscópicas de un programa predeterminado que incluyen datos de imagen de ojo izquierdo y datos de imagen de ojo derecho y un conjunto de información de disparidad para una posición de píxel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado se reciben por la unidad de recepción. Aquí, el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de la posición de píxel predeterminada con respecto a toda la imagen de datos de disparidad para la posición de píxel predeterminada. Por consiguiente, el conjunto de información de disparidad se sincroniza espacialmente con los datos de imágenes estereoscópicas. Además, este conjunto de información de disparidad es independiente de la resolución de una imagen estereoscópica y también es independiente de la resolución de visualización del monitor o el tamaño del monitor.
Mediante la unidad de datos de salida de información solapada, los datos de la información solapada de ojo izquierdo que corresponde con los datos de imagen de ojo izquierdo que se incluyen en los datos de imágenes estereoscópicas recibidos por la unidad de recepción y los datos de la información solapada de ojo derecho que corresponde con los datos de imagen de ojo derecho que se incluyen en los datos de imágenes estereoscópicas recibidas por la unidad de recepción se producen. Después, mediante la unidad de solapado de datos, los datos de la información solapada de ojo izquierdo y los datos de la información solapada de ojo derecho, que se producen desde la unidad de salida de datos de información solapada, y los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho incluidos en los datos de imágenes estereoscópicas recibido por la unidad de recepción se solapan entre sí . Por consiguiente, la información gráfica tal como en una OSD puede desplegarse en una imagen estereoscópica en una forma solapada .
Mediante la unidad de salida de datos de información solapada, la disparidad se hace presentar entre la información solapada de ojo izquierdo y la información solapada de ojo derecho basándose en el conjunto de información de disparidad recibido por la unidad de recepción. Por lo tanto, de acuerdo con la presente invención, al desplegar información gráfica tal como en una OSD, la consistencia en la perspectiva de cada objeto dentro de la imagen puede mantenerse.
Además, de acuerdo con la presente invención, el conjunto de información de disparidad incluye datos de posición que representan una porción relativa de la posición de píxel predeterminada con respecto a toda la imagen y la información de disparidad para la posición de píxel predeterminada. Por consiguiente, el conjunto de información de disparidad es independiente de la resolución de una imagen estereoscópica y también es independiente de la resolución de visualización del monitor y/o el tamaño de monitor. Por lo tanto, el ajuste de disparidad puede realizarse fácilmente al utilizar el conjunto de información de disparidad sin importar la resolución de visualización del monitor o el tamaño del monitor.
De acuerdo con otro concepto adicional de la presente invención, se proporciona un dispositivo de recepción de datos de imágenes estereoscópicas que incluye: una unidad de recepción que recibe datos de imágenes estereoscópicas para un programa predeterminado que incluyen datos de imagen de ojo izquierdo y datos de imagen de ojo derecho y un conjunto de información de disparidad para una posición de pixel predeterminada que corresponde con los datos de imágenes es ereoscópicas del programa predeterminado; y una unidad de transmisión que transmite los datos de imagen de ojo izquierdo, los datos de imagen de ojo derecho, y el conjunto de información de disparidad de manera que se reciban por la unidad de recepción en el dispositivo externo a través de una linea de transmisión, en donde el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de la posición de pixel predeterminada con respecto a toda la imagen y datos de disparidad para la posición de pixel predeterminada.
De acuerdo con la presente invención, mediante la unidad de recepción, datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho y un conjunto de información de disparidad para una posición de píxel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado se reciben. Aquí, el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de la posición de píxel predeterminada con respecto a toda la imagen y datos de disparidad para la posición de píxel predeterminada. Por consiguiente, el conjunto de información de disparidad se sincroniza espacialmente con los datos de imágenes estereoscópicas. Además, este conjunto de información de disparidad es independiente de la resolución de una imagen estereoscópica y también es independiente de la resolución de visualización del monitor o el tamaño del monitor.
Después, mediante la unidad de transmisión, los datos de imagen de ojo izquierdo, los datos de imagen de ojo derecho y el conjunto de información de disparidad se reciben, se transmiten a un dispositivo externo a través de una línea de transmisión. En la presente invención, por ejemplo, la unidad de transmisión transmite los datos de imágenes a través de una pluralidad de canales hasta el dispositivo externo a través de la línea de transmisión al utilizar señales diferenciales, y la unidad de transmisión transmite la información de disparidad hasta el dispositivo externo al insertar el conjunto de información de disparidad en un período de supresión de los datos de imagen.
Además, en la presente invención, por ejemplo, la unidad de transmisión incluye: una unidad de generación de datos de transmisión que genera datos de transmisión en unidades de un período de campo de vídeo que incluye un intervalo de supresión horizontal, un intervalo de supresión vertical, y un intervalo de vídeo activo que se descomponen de acuerdo con una señal de sincronización vertical; y una unidad de transmisión de datos de transmisión que transmite los datos de transmisión generados por la unidad de generación de datos de transmisión hasta el dispositivo externo a través de la línea de transmisión a través de una pluralidad de canales al utilizar señales diferenciales, en donde el intervalo de vídeo activo incluye una región de vídeo principal y una región de vídeo auxiliar, y la unidad de generación de datos de transmisión dispone los datos de imagen en la región de video principal y dispone el conjunto de información de disparidad con respecto a los datos de imagen dispuestos en la región de video principal en la región de video auxiliar.
Como en lo anterior, de acuerdo con la presente invención, junto con los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho, un conjunto de información de disparidad para una posición de píxel predeterminada, que corresponde con los datos de imágenes estereoscópicas del programa predeterminado, se transmite un dispositivo externo a través de la línea de transmisión. Por consiguiente, en un dispositivo externo, por ejemplo, un dispositivo de visualización de imagen tal como receptor de televisión, al utilizar el conjunto de información de disparidad, la información solapada que solapa la imagen de ojo izquierdo y la imagen de ojo derecho, por ejemplo, la información gráfica tal como una OSD para la cual se ha realizado ajustes de disparidad de acuerdo con la perspectiva de cada objeto dentro de una imagen, puede utilizarse Por lo tanto, al desplegar información gráfica tal como una OSD, la consistencia en la perspectiva de cada objeto dentro de la imagen puede mantenerse.
Además, de acuerdo con la presente invención, el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de una posición de pixel predeterminada con respecto a toda la imagen y los datos de disparidad para la posición de pixel predeterminada. Por consiguiente, el conjunto de información de disparidad es independiente de la resolución de una imagen estereoscópica y también es independiente de la resolución de visualización del monitor o el tamaño del monitor. Por lo tanto, en un dispositivo externo, por ejemplo, un dispositivo de visualización de imagen tal como un receptor de televisión, el ajuste de disparidad puede realizarse de forma fácil al utilizar el conjunto de información de disparidad sin importar la resolución de visualización del monitor o el tamaño del monitor.
Además, de acuerdo con un concepto adicional de la presente invención, se proporciona un dispositivo de transmisión de datos de imagen estereoscópica que incluye: una unidad de salida de datos de imagen que produce datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho; una unidad de salida de información de disparidad que produce información de disparidad que corresponde con los datos de imágenes estereoscópicas del programa predeterminado que se produce desde la unidad de salida de datos de imagen; y una unidad de transmisión que transmite los datos de imágenes estereoscópicas producidos desde la unidad de salida de datos de imagen y la información de disparidad producida desde la unidad de salida de información de disparidad, en donde la unidad de transmisión inserta un segmento o un paquete que incluye la información de disparidad en una corriente elemental utilizada para transmitir información predeterminada, y el segmento o el paquete además incluye información de tiempo que representa el tiempo de uso de la información de disparidad.
De acuerdo con la presente invención, mediante la unidad de salida de datos de imagen, los datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen ojo izquierdo y datos de imagen de ojo derecho se producen. Además, mediante la unidad de salida de información de disparidad, la información de disparidad que corresponde con los datos de imágenes estereoscópicas del programa predeterminado se produce. Esta información de disparidad, por ejemplo, se forma por los datos de posición que representan una posición o un área y los datos de disparidad para el área. En tal caso, existe una situación donde los datos de posición representa una posición relativa con respecto a toda la imagen, una situación donde los datos de posición representan la posición absoluta dentro de la imagen, o similares.
Mediante la unidad de transmisión, los datos de imágenes estereoscópicas producidos desde la unidad de salida de datos de imagen y la información de disparidad producida desde la unidad de salida de información de disparidad se transmiten. En tal caso, en la unidad de transmisión, un segmento o un paquete que incluye la información de disparidad se inserta en una corriente elemental utilizada para transmitir información predeterminada tal como datos de subtítulos o independientes. En este segmento o paquete, la información de tiempo que representa el tiempo de uso de la información de disparidad se incluye adicionalmente.
Como en lo anterior, de acuerdo con la presente invención, junto con los datos de imágenes estereoscópicas de un programa predeterminado que incluye los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho, la información de disparidad que corresponde con los datos de imágenes estereoscópicas del programa predeterminado y la información de tiempo de uso de la información de disparidad se transmiten. Por consiguiente, en el lado de recepción, al utilizar la información de disparidad, la información solapada que solapa la imagen de ojo izquierdo y la imagen de ojo derecho, por ejemplo, información gráfica tal como una OSD para la cual se ha realizado ajuste de visualización de acuerdo con la perspectiva de cada objeto dentro de una imagen, pueden utilizarse. Por lo tanto, en el despliegue de información gráfica tal como en una OSD, la consistencia en la perspectiva de cada objeto dentro de la imagen puede mantenerse.
Además, en la presente invención, por ejemplo, el segmento o el paquete además puede incluir información de indicador que representa si los segmentos o los paquetes se presentan continuamente o no . En tal caso, en el lado de recepción, puede comprobarse si los segmentos o paquetes en los cuales se incluye la información de disparidad se presentan continuamente o no basándose en la información de indicador, y por consiguiente, la posibilidad de actualización de información de disparidad y similar puede comprobarse con anticipación.
EFECTOS DE LA INVENCIÓN
De acuerdo con la presente invención, en una visualización de información solapada, por ejemplo, en la información gráfica tal como una OSD al momento de desplegar una imagen estereoscópica, la consistencia de la perspectiva entre objetos respectivos dentro de una imagen puede mantenerse fácilmente.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1 es un diagrama de bloque que ilustra un ejemplo de la configuración de un sistema de visualización de imagen estereoscópica como una modalidad de la presente invención .
La Figura 2 es un diagrama de bloque que ilustra un ejemplo de la configuración de una unidad de generación de datos de transmisión en una estación de difusión.
La Figura 3 es un diagrama que ilustra datos de imagen que tiene un formato de pixel de 1920 x 1080 p.
La Figura 4 es un diagrama que ilustra un tipo "Superior e Inferior", un tipo "Lado a Lado", y un tipo "Trama Secuencial" que son tipos de transmisión de datos de imágenes estereoscópicas (datos de imágenes 3D) .
La Figura 5 es un diagrama que ilustra un ejemplo para detectar un vector de disparidad de una imagen de ojo derecho con respecto a una imagen de ojo izquierdo.
La Figura 6 es un diagrama que ilustra calcular un vector de disparidad en un tipo de correlación de bloque.
La Figura 7 es un diagrama que ilustra la generación de un conjunto de información de disparidad para cada periodo dividido adquirido al dividir igualmente un periodo de programa en una forma jerárquica.
La Figura 8 es un diagrama que ilustra un ejemplo de la configuración de una corriente de transporte (un descriptor que incluye el conjunto de información de disparidad que se inserta bajo un EIT) .
La Figura 9 es un diagrama que ilustra un ejemplo de la configuración de una corriente de transporte (un descriptor que incluye el conjunto de información de disparidad que se inserta en un descriptor de programa incluido en una PMT) .
La Figura 10 es un diagrama que ilustra un ejemplo de la configuración de una corriente de transporte (un descriptor que incluye el conjunto de información de disparidad que se dispone en una parte del descriptor de un bucle elemental de video) .
La Figura 11 es un diagrama que ilustra un conjunto de información de disparidad que se genera en el "Caso 1" .
La Figura 12 es un diagrama que ilustra el conjunto de información de disparidad que se genera en el "Caso 1".
La Figura 13 es un diagrama de flujo que ilustra la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 1".
La Figura 14 es un diagrama que ilustra datos de dirección incluidos en un conjunto de información de disparidad que se genera en el "Caso 3".
La Figura 15 es un diagrama que ilustra el conjunto de información de disparidad que se genera en el "Caso 3".
La Figura 16 es un diagrama que ilustra el conjunto de información de disparidad que se genera en el "Caso 3".
La Figura 17 es un diagrama de flujo que ilustra la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 3".
La Figura 18 es un diagrama que ilustra un conjunto de información de disparidad (modo de coordenada 0) que se genera en el "Caso 5".
La Figura 19 es un diagrama que ilustra un conjunto de información de disparidad (modo de coordenada 1) que se genera en el "Caso 5".
La Figura 20 es un diagrama de flujo que ilustra la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 5".
La Figura 21 es un diagrama que ilustra datos de disparidad (Relative_Disparity_ratio) incluidos en un conjunto de información de disparidad que se genera en el "Caso 6" .
La Figura 22 es un diagrama que ilustra un ejemplo del contenido de un conjunto de información de disparidad que se genera en el "Caso 1".
La Figura 23 es un diagrama que ilustra un ejemplo del contenido de un conjunto de información de disparidad que se genera en el "Caso 2".
La Figura 24 es un diagrama que ilustra un ejemplo del contenido de un conjunto de información de disparidad que se genera en el "Caso 3".
La Figura 25 es un diagrama que ilustra un ejemplo del contenido de un conjunto de información de disparidad que se genera en el "Caso 4".
La Figura 26 es un diagrama que ilustra un contenido de especificación de datos principales (semántica) en el ejemplo del contenido del conjunto de información de disparidad.
La Figura 27 es un diagrama que ilustra un ejemplo del contenido del conjunto de información de disparidad que se genera en el "Caso 5".
La Figura 28 es un diagrama que ilustra un ejemplo del contenido de un conjunto de información de disparidad que se genera en el "Caso 6".
La Figura 29 es un diagrama que ilustra un contenido de especificación de datos principales (semántica) en el ejemplo del contenido del conjunto de información de disparidad.
La Figura 30 es un diagrama que ilustra un ejemplo de un descriptor (Descriptor z-OSD) que incluye el conjunto de información de disparidad que se genera en el "Caso 1".
La Figura 31 es un diagrama que ilustra un ejemplo de un descriptor (Descriptor z-OSD) que incluye el conjunto de información de disparidad que se genera en el "Caso 2".
La Figura 32 es un diagrama que ilustra un ejemplo de un descriptor (Descriptor z-OSD) que incluye el conjunto de información de disparidad que se genera en el "Caso 3".
La Figura 33 es un diagrama que ilustra un ejemplo de un descriptor (Descriptor z-OSD) que incluye el conjunto de información de disparidad que se genera en el "Caso 4".
La Figura 34 es un diagrama que ilustra un ejemplo de un descriptor (Descriptor z-OSD) que incluye el conjunto de información de disparidad que se genera en el "Caso 5" .
La Figura 35 es un diagrama que ilustra un ejemplo de un descriptor (Descriptor z-OSD) que incluye el conjunto de información de disparidad que se genera en el "Caso 6".
La Figura 36 es un diagrama de bloque que ilustra un ejemplo de la configuración de una caja del convertidor-descodificador .
La Figura 37 es un diagrama de bloque que ilustra un ejemplo de la configuración de un receptor de televisión.
La Figura 38 es un diagrama de flujo que ilustra la secuencia de un proceso de reproducción en el lado de recepción para el conjunto de información de disparidad que se genera en el "Caso 1".
La Figura 39 es un diagrama que ilustra el proceso de reproducción en el lado de recepción para el conjunto de información de disparidad que se genera en el "Caso 1".
La Figura 40 es un diagrama que ilustra el proceso de reproducción en el lado de recepción para el conjunto de información de disparidad que se genera en el "Caso 1".
La Figura 41 es un diagrama de flujo que ilustra la secuencia de un proceso de reproducción en el lado de recepción para el conjunto de información de disparidad y se genera en el "Caso 6".
La Figura 42 es un diagrama que ilustra la relación entre información de disparidad y la posición de acuerdo con una diferencia en el tamaño de un monitor.
La Figura 43 es un diagrama que ilustra la relación entre información de disparidad y la posición de acuerdo con una diferencia en la resolución.
La Figura 44 es un diagrama que ilustra de manera esquemática un ejemplo de interpolación en un caso en donde los pixeles se desplazan por un medio pixel en la dirección horizontal .
La Figura 45 es un diagrama de bloque que ilustra la configuración de una unidad de transmisión de HDMI (fuente de HDMI) y una unidad de recepción de HDMI (colector de HDMI) .
La Figura 46 es un diagrama que ilustra un ejemplo de la estructura de datos de transmisión de TMDS (en un caso en donde los datos de imagen que tienen líneas horizontales de 1920 pixeles y verticales de 1080 pixeles se transmiten) .
La Figura 47 es un diagrama que ilustra la disposición de patitas (tipo A) de una terminal de HDMI a la cual un cable de HDMI del dispositivo de fuente o dispositivo colector se conecta.
La Figura 48 es un diagrama que ilustra un ejemplo de la estructura de datos de E-EDID.
La Figura 49 es un diagrama que ilustra un ejemplo de la estructura de datos de una región específica de vendedor (Bloque de Datos Específicos de Vendedor de HDMI) .
La Figura 50 es un diagrama que ilustra el formato de video en 3D de un tipo de paquete de tramas que es uno de las estructuras de datos de transmisión de TMDS de datos de imágenes estereoscópicas.
La Figura 51 es un diagrama que ilustra un ejemplo de la estructura de paquete de una Trama de Información Específica de Vendedor de HDMI en un caso en donde la Trama de Información Específica de Vendedor de HDMI se utiliza para la transmisión de un conjunto de información de disparidad.
La Figura 52 es un diagrama que ilustra un ejemplo de la estructura de paquetes de una Trama de Información Específica de Vendedor de HDMI en un caso en donde un área de espacio activo se utiliza para la transmisión de un conjunto de información de disparidad.
La Figura 53 es un diagrama que ilustra la estructura de un conjunto de información de disparidad que se dispone en el área de espacio activo.
La Figura 54 es un diagrama que ilustra cada contenido de información de una estructura de conjunto de información de disparidad.
La Figura 55 es un diagrama que ilustra otro ejemplo de la configuración de un sistema de visualización de imagen estereoscópica.
La Figura 56 es un diagrama que ilustra un ejemplo de la configuración de corriente de transporte en un caso en donde un conjunto de información de disparidad se transmite al insertarse en una corriente elemental de video (corriente de datos de video) .
La Figura 57 es un diagrama que ilustra de menara esquemática un ejemplo de la estructura de una corriente elemental de video (Corriente Elemental de Video) .
La Figura 58 es un diagrama que ilustra un ejemplo de la configuración de datos de usuario que se integra en una región de datos de usuario de una sección de encabezado de imagen .
La Figura 59 es un diagrama que ilustra un ejemplo de la estructura (Sintaxis) de los datos de usuario que incluye un conjunto de información de disparidad.
La Figura 60 es un diagrama que ilustra el contenido de especificación de datos principales (Semántica) de varios ejemplos de estructura tales como la estructura (Sintaxis) de los datos de usuario que incluyen un conjunto de información de diferencia.
La Figura 61 es un diagrama que ilustra un ejemplo de la configuración de una corriente de transporte en un caso en donde un conjunto de información de disparidad se transmite al insertarse en una corriente elemental de subtítulos (corriente de datos de subtítulos) .
La Figura 62 es un diagrama que ilustra los tipos de segmentos de varios segmentos que se incluyen en la corriente elemental de subtítulos.
La Figura 63 es un diagrama que ilustra un ejemplo de la estructura (sintaxis) de un zOSD (segmento z-OSD.)
La Figura 64 es un diagrama que ilustra la configuración de un encabezado de PES y datos de carga útil de PES de la corriente de datos de subtítulos.
La Figura 65 es un diagrama que ilustra un ejemplo e la configuración de una corriente de transporte en un caso en donde un conjunto de información de disparidad se transmite como una corriente metadatos independiente (Metadatos) .
La Figura 66 es un diagrama que ilustra un ejemplo de la estructura (sintaxis) de una corriente elemental de metadatos en la cual los metadatos {metadatos z-OSD) que incluyen un conjunto de información de disparidad se insertan .
La Figura 67 es un diagrama que ilustra un ejemplo de la estructura detallada del "z-OSD_Metadata_set ( ) " .
La Figura 68 es un diagrama que ilustra la relación entre una posición de visualización horizontal de un objeto en una pantalla y una posición de reproducción de una imagen estereoscópica de la misma en una visualización de imagen estereoscópica utilizando paralaje binocular.
MODO PARA LLEVAR A CABO LA INVENCIÓN
Después de esto, se describirá un modo para llevar a cabo la presente invención (después de esto, denominado como "modalidad"). La descripción se presentará en el siguiente orden.
1. Modalidad
2. Ejemplo Modificado
<1. Modalidad>
[Ejemplo de la Configuración del Sistema de Visualización de Imagen Estereoscópica]
La Figura 1 ilustra un ejemplo de la configuración de un sistema 10 de visualización de imagen estereoscópica como la modalidad. El sistema 10 de transmisión y recepción de imágenes estereoscópicas incluye una estación 100 de difusión, una caja del convertidor-descodificador (STB) 200, y un receptor de televisión (TV) 300.
La caja del convertidor-descodificador 200 y el receptor de televisión 300 se interconectan a través de un cable 400 de interfaz de multimedia de alta definición (HDMI) . Una terminal 202 de HDMI se dispone en la caja del convertidor-descodificador 200. Además, una terminal 302 de HDMI se dispone en el receptor de televisión 300. Un extremo del cable 400 de HDMI se conecta a la terminal 202 de HDMI de la caja del convertidor-descodificador 200 y el otro extremo del cable 400 de HDMI se conecta a la terminal 302 de HDMI del receptor de televisión 300.
[Descripción de la Estación de Difusión]
La estación 100 de difusión transmite los datos de corriente de bits BSD al llevarlos en ondas de difusión. La estación 100 de difusión incluye una unidad 110 de generación de datos de transmisión que genera los datos de corriente de bits BSD. En los datos de corriente de bits BSD, datos de imágenes estereoscópicas, datos de audio, un conjunto de información de disparidad, y similares, se incluyen. Aquí, los datos de imágenes estereoscópicas son datos de datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho. Los datos de audio son datos de audio que corresponden con los datos de imágenes estereoscópicas. El conjunto de información de disparidad es un conjunto de información de disparidad de una posición de pixel predeterminada que corresponde con los datos de imágenes estereoscópicas .
[Ejemplo de Configuración de la Unidad de Generación de Datos de Transmisión]
La Figura 2 ilustra un ejemplo de la configuración de la unidad 110 de generación de datos de transmisión que genera datos de transmisión en la estación 100 de difusión. La unidad 110 de generación de datos de transmisión incluye: cámaras 111L y 111R; una unidad 112 de tramas de video; una unidad 113 de generación de mapas de disparidad; un micrófono 114; una unidad 115 de búsqueda de datos; y conmutadores 116 a 118 de cambio. Además, la unidad 110 de generación de datos de transmisión incluye: un codificador 119 de video; un codificador 120 de audio; una unidad 122 de generación de conjunto de información de disparidad; y un multiplexor 126.
La cámara 111L adquiere los datos de imagen de ojo izquierdo utilizados para una visualización de imagen estereoscópica al fotografiar una imagen de ojo izquierdo. La cámara 111R adquiere los datos de imagen de ojo derecho utilizados para una visualización de imagen estereoscópica al fotografiar una imagen de ojo derecho. La unidad 112 de tramas de video procesa los datos de imagen de ojo izquierdo adquiridos por la cámara 111L y los datos de imagen derecho adquiridos por la cámara 111R en los datos de imágenes estereoscópicas (datos de imágenes 3D) que corresponden con el formato de transmisión. La unidad 112 de tramas de video configura una unidad de salida de datos de imagen.
Un ejemplo del formato de transmisión de los datos de imágenes estereoscópicas se describirá. Aquí, aunque los siguientes formatos de transmisión primero a tercero se describirán, un formato de transmisión diferente a estos puede utilizarse. Aquí, como se ilustra en la Figura 3, se describirá un caso como un ejemplo en el cual cada uno de los datos de imágenes del ojo izquierdo (L) y datos de imágenes del ojo derecho (R) son datos de imágenes de resolución determinada, por ejemplo, un formato de pixel de 1920 x 1080.
El primer tipo de transmisión es un tipo superior e inferior (Superior e Inferior) y, como se ilustra en la Figura 4(a), es un tipo de transmisión en cual los datos de cada línea de los datos de imagen de ojo izquierdo se transmiten en la primera mitad de la dirección vertical y los datos de cada línea de los datos de imagen de ojo izquierdo se trasmiten en la segunda mitad de la dirección vertical. En tal caso, puesto que las líneas de datos de imagen de ojo izquierdo y las líneas de datos de imagen de ojo derecho se reducen a la mitad, la resolución vertical se vuelve la mitad de la señal original .
El segundo tipo de transmisión es un tipo lado a lado, como se ilustra en la Figura 4(b), es un tipo de transmisión en cual los datos de pixeles de los datos de imagen de ojo izquierdo se transmiten en la primera mitad de la dirección horizontal y los datos de pixeles de los datos de imagen de ojo derecho se trasmiten en la segunda mitad de la dirección horizontal. En tal caso, los datos de pixeles de cada uno de los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho en la dirección horizontal se reducen a la mitad. La resolución horizontal se vuelve la mitad de la señal original.
El tercer tipo de transmisión es un tipo de trama secuencial, y como se ilustra en la Figura 4(c), es un tipo de transmisión en cual la conmutación entre los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho se realiza secuencialmente para cada trama. Además, también existen casos donde el tipo de trama secuencial se denomina como tipo de trama completa o un tipo retro-compatible.
Con referencia nuevamente a la Figura 2, la unidad 113 de generación de mapas de disparidad genera un mapa de disparidad, por ejemplo, al detectar un vector de disparidad (información de disparidad para cada pixel que configura una imagen basándose en los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho. Por ejemplo, entre más alejado se ubique un pixel en el lado frontal, mayor será el valor de la información de disparidad.
Un ejemplo para detectar un vector de disparidad se describirá. Aquí, un ejemplo se describirá en el cual un vector de disparidad de una imagen de ojo derecho con respecto a una imagen de ojo izquierdo se detecta. Como se ilustra en la Figura 5, la imagen de ojo izquierdo se establece como una imagen de detección, y la imagen de ojo derecho se establece como una imagen de referencia. En este ejemplo, los vectores de disparidad en las posiciones de (xi, yi) y (xj , yj ) se detectan.
Un caso se describirá como ejemplo en el cual un vector de disparidad en la posición de (xi, yi) se detecta. En este caso, en la imagen de ojo izquierdo, un pixel ubicado en la posición de (xi, yi) se establece como el lado izquierdo superior, y por ejemplo, un bloque de pixel (bloque de detección de disparidad) Bi de 4x4, 8x8, o 16x16 se establece Entonces, en la imagen de ojo derecho un bloque de pixel que coincide con el bloque de pixel Bi se busca.
En tal caso, en la imagen de ojo derecho, un margen de búsqueda que tiene la posición de (xi, yi) como su centro se establece, y cada pixel dentro del margen de búsqueda se establece de manera secuencial como de pixel de interés, y los bloques de comparación, por ejemplo, de 4x4, 8x8, o 16x16 los cuales son los mismos que del bloque de pixel Bi antes descrito, se establece de forma secuencial.
Entre el bloque de pixel Bi y cada bloque de comparación que se establezca secuencialmente, una suma de valores absolutos de diferencias entre pixeles correspondientes se calcula. Aquí, como se ilustra en la Figura 6, cuando un valor de pixel del bloque de pixel Bi es L(x, y) , y un valor de pixel del bloque de comparación R(x, y) , una suma de los valores absolutos de diferencias entre el bloque de pixel Bi y un bloque de comparación específica se representan como ?|L(x, y) - R(x, y).
Cuando se incluyen n pixeles en el margen de búsqueda establecido en la imagen de ojo derecho, una suma SI a Sn se adquiere finalmente, y una suma mínima Smin se selecciona de entre las mismas. Después, la posición (xi', yi ' ) del pixel ubicado en el lado izquierdo superior puede adquirirse del bloque de comparación del cual se adquiere la suma Smin. Por consiguiente, un vector de disparidad en la posición de (xi, yi) se detecta como (xi'-xi, yi'-yi). Aunque la descripción detallada no se presentará, también para un vector de disparidad en la posición de (xj , yj ) un pixel ubicado en la posición de (xj , yj ) se establece como el lado izquierdo superior en la imagen de ojo izquierdo, y un bloque de pixel Bj , por ejemplo de 4x4, 8x8, o 16x16 se establece, de manera que el vector de disparidad puede detectarse en un proceso similar.
El micrófono 114 detecta audio que corresponde con las imágenes fotografiadas por las cámaras 111L y 111R para adquirir datos de audio.
La unidad 115 de búsqueda de datos se utiliza en un estado en el cual un medio 115a de grabación de datos se une de manera separable a la misma. El medio 115a de grabación de datos es un medio de grabación en forma de disco, una memoria de semiconductor, o similares. En el medio 115a de grabación de datos junto con los datos de imágenes estereoscópicas que incluyen los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho, datos de audio y un mapa de disparidad se graban junto con los mismos. La unidad 115 de búsqueda de datos busca los datos de imágenes estereoscópicas, los datos de audio y el mapa de disparidad del medio 115a de grabación de datos y produce los datos buscados. En la unidad 115 de búsqueda de datos configura una unidad de salida de datos de imagen .
Aquí, los datos de imágenes estereoscópicas grabados en el medio 115a de grabación de datos corresponden con los datos de imágenes estereoscópicas si se adquieren por la unidad 112 de tramas de video. Además, los datos de audio grabados en el medio 115a de grabación de datos corresponden con los datos de audio que se adquieren por el micrófono 114. Además, el mapa de disparidad grabado en el medio 115a de grabación de datos corresponde con el vector de disparidad que se genera por la unidad 113 de generación de mapas de disparidad.
El conmutador 116 de cambio busca selectivamente los datos de imágenes estereoscópicas adquiridos por la unidad 112 de tramas de video o los datos de imágenes estereoscópicas producidos desde la unidad 115 de búsqueda de datos. En tal caso, el conmutador 116 de cambio se conecta al lado "a" y busca los datos de imágenes estereoscópicas adquiridos por la unidad 112 de tramas de video en un nodo activo, y se conecta al lado "b" y busca los datos de imágenes estereoscópicas producidos desde la unidad 115 de búsqueda de datos en un modo de reproducción.
Un conmutador 117 de cambio busca selectivamente el mapa de disparidad que se genera por la unidad 113 de generación de mapa de disparidad o el mapa de disparidad que se produce desde la unidad 115 de búsqueda de datos. En tal caso, el conmutador 117 de cambio se conecta al lado "a" y busca el mapa de disparidad que se genera por la unidad 113 de generación de mapa de disparidad en el modo activo, y se conecta al lado Kh" y busca el mapa de disparidad que se produce desde la unidad 115 de búsqueda de datos en el modo de reproducción.
El conmutador 118 de cambio busca selectivamente los datos de audio que se adquieren por el micrófono 114 o los datos de audio que se producen desde la unidad 115 de búsqueda de datos. En tal caso, el conmutador 118 de cambio se conecta al lado "a" y busca los datos de audio que se adquieren por el micrófono 114 en el modo activo, y se conecta al lado "b" y busca los datos de audio que se producen desde la unidad 115 de búsqueda de datos en el modo de reproducción.
El codificador 119 de video realiza codificación tal como MPEG4-AVC , MPEG2 , o VC-1 en los datos de imágenes estereoscópicas que se buscan por el conmutador 116 de cambio para generar una corriente de datos de video (corriente elemental de video) . El codificador 120 de audio realiza codificación tal como AC3 o AAC en los datos de audio que se buscan por el conmutador 118 de cambio para generar una corriente de datos de audio (corriente elemental de audio) .
La unidad 122 de generación de conjunto de información de disparidad genera un conjunto de información de disparidad para una posición de pixel predeterminada que corresponde con los datos de imágenes estereoscópicas de un programa predeterminado que se produce desde el conmutador 116 de cambio, basándose en el mapa de disparidad que se busca por el conmutador 117 de cambio. La posición de pixel predeterminada, por ejemplo, es una posición de pixel en la cual el valor de información de disparidad se maximiza, en otras palabras, la posición de pixel que se reconoce se ubica en el lado más destacado, o similar.
El conjunto de información de disparidad incluye datos de posición que representan una posición relativa de una posición de pixel predeterminada con respecto a toda la imagen y los datos de disparidad de la posición de pixel predeterminada. Por consiguiente, el conjunto de información de disparidad se sincroniza espacialmente con los datos de imágenes estereoscópicas. Además, el conjunto de información de disparidad es independiente de la resolución de la imagen estereoscópica y también es independiente de la resolución de visualización del monitor y el tamaño de monitor.
La unidad 122 de generación de conjunto de información de disparidad genera un conjunto de información de disparidad para cada período dividido que se adquiere al dividir igualmente un período de un programa predeterminado o similar en una forma jerárquica. Por consiguiente, el conjunto de información de disparidad se sincroniza con los datos de imágenes estereoscópicas en tiempo. La Figura 7(1) ilustra un estado en el cual el programa se divide igualmente en tres períodos a, b y c. Además, la Figura 7(2) ilustra un estado en el cual el período b se divide además igualmente en cuatro períodos. Aquí, el número de jerarquías para dividir igualmente no se limita a dos. La generación de un conjunto de información de disparidad al utilizar la unidad 122 de generación de conjunto de información de disparidad se describirá posteriormente en detalle.
El multiplexor 126 adquiere una corriente de datos multiplexados como datos de corriente de bits (corriente de transporte) BSD al multiplexar las corrientes de datos transmitidas desde el codificador 119 de video y el codificador 120 de audio. Además, el multiplexor 126 inserta un conjunto de información de disparidad generado por la unidad 122 de generación de conjunto de información de disparidad en los datos de corriente de bits . De manera más específica, el multiplexor 126 inserta un descriptor (descriptor z-OSD) que incluye un conjunto de información de disparidad en la posición predeterminada en la información PSI o información SI que se inserta en los datos de corriente de bits BSD. El descriptor se describirá posteriormente en detalle .
La operación de la unidad 110 de generación de datos de transmisión ilustrada en la Figura 2 se describirá brevemente. Una imagen de ojo izquierdo se fotografía por la cámara 111L. Los datos de imagen de ojo izquierdo que se adquieren por la cámara 111L, utilizada para visualizar una imagen estereoscópica se suministra a la unidad 112 de tramas de video. Además, una imagen de ojo derecho se fotografía por la cámara 111R. Los datos de imagen de ojo derecho que se adquieren por la cámara 111R, utilizada para visualizar una imagen estereoscópica se suministra a la unidad 112 de tramas de video. Los datos de imagen izquierda y los datos de imagen derecha se procesan para encontrarse en un estado que corresponde con el formato de transmisión por la unidad 112 de tramas de video, por lo que los datos de imagen estereoscópica se adquieren (véase Figuras 4(a) a 4(c)) .
Los datos de imágenes estereoscópicas adquiridos por la unidad 112 de tramas de video se suministran a una terminal fija del conmutador 116 de cambio que se ubica en el lado "a". Además, los datos de imágenes estereoscópicas adquiridos por la unidad 115 de búsqueda de datos se suministran a una terminal fija de conmutador 116 de cambio que se ubica en el lado "b" . En el modo activo, el conmutador 116 de cambio se conecta al lado "a", y los datos de imágenes estereoscópicas adquiridos por la unidad 112 de tramas de video se buscan del conmutador 116 de cambio. En el modo de reproducción el conmutador 116 de cambio se conecta al lado "b" y los datos de imágenes estereoscópicas producidos desde la unidad 115 de búsqueda de datos se buscan del conmutador 116 de cambio.
Los datos de imágenes estereoscópicas buscados por el conmutador 116 de cambio se suministran al codificador 119 de video. En el codificador 119 de video, la codificación tal como MPEG4-AVC, MPEG2 o VC-1 se realiza para los datos de imágenes estereoscópicas, por lo que una corriente de datos de vídeo que incluye datos de video codificados se genera. La corriente de datos de video se suministra al multiplexor 126.
Los datos de audio adquiridos por el micrófono 114 se suministran a la terminal fija del conmutador 118 de cambio que se ubica en el lado "a". Además, los datos de audio adquiridos por la unidad 115 de búsqueda de datos se suministran a la terminal fija del conmutador 118 de cambio que se ubica en el lado "b" . En el modo activo, el conmutador 118 de cambio se conecta al lado "a", y los datos de audio adquiridos por el micrófono 114 se buscan del conmutador 118 de cambio. En el modo de reproducción, el conmutador 118 de cambio se conecta al lado Mb" y los datos de audio que se producen de la unidad 115 de búsqueda de datos se buscan del conmutador 118 de cambio.
Los datos de audio buscados por el conmutador 118 de cambio se suministran al codificador 120 de audio. En el codificador 120 de audio, la codificación tal como MPEG-2Audio AAC o MPEG-4 AAC se realiza para los datos de audio, por lo que una corriente de datos de audio que incluye datos de audio codificados se genera. La corriente de datos de audio se suministra al multiplexor 126.
Los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho adquiridos por las cámaras lllL y 111R se suministran a la unidad 113 de generación de mapa de disparidad a través de la unidad 112 de tramas de video. En la unidad 113 de generación de mapa de disparidad, basándose en los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho, se detecta un vector de disparidad para cada pixel, por lo que se genera un mapa de disparidad. El mapa de disparidad se suministra a la terminal fija del conmutador 117 de cambio que se ubica en el lado "a". Además, el mapa de disparidad que se produce desde la unidad 115 de búsqueda de datos se suministra a la terminal fija del conmutador 117 de cambio que se ubica en el lado "b" .
En el modo activo, el conmutador 117 de cambio se conecta al lado "a", y el mapa de disparidad generado por la unidad 113 de generación de mapas de disparidad se busca del conmutador 117 de cambio. En el modo de reproducción, el conmutador 117 de cambio se conecta al lado "b", y el mapa de disparidad producido desde la unidad 115 de búsqueda de datos se busca del conmutador 117 de cambio.
El mapa de disparidad buscado por el conmutador 117 de cambio se suministra a la unidad 122 de generación de conjunto de información de disparidad. La unidad 122 de generación de conjunto de información de disparidad, basándose en el mapa de disparidad, un conjunto de información de disparidad para una posición de pixel predeterminada que corresponde con los datos de imágenes estereoscópicas de un programa predeterminado que se produce desde el conmutador 116 de cambio se genera en correspondencia con cada período dividido que se divide jerárquicamente. En el conjunto de información de disparidad, los datos de posición que representan una posición relativa de la posición de pixel predeterminada con respecto a toda la imagen y la información de disparidad para la posición de pixel predeterminada se incluyen. El conjunto de información de disparidad se suministra al multiplexor 126.
En el multiplexor 126, las corrientes de datos transmitidas desde el codificador 119 de video y el codificador 120 de audio se multiplexan, por lo que una corriente de datos multiplexada, datos de corriente multiplexada, datos de corriente de bits (corriente de transporte) BSD se adquiere.
Además, en el multiplexor 126, el conjunto de información de disparidad generado por la unidad 122 de generación de conjunto de información de disparidad se inserta en los datos de corriente de bits BSD. En otras palabras, en el multiplexor 126, un descriptor (descriptor z-OSD) que incluye el conjunto de información de disparidad se inserta en una posición predeterminada de la información PSI o la información SI que se inserta en los datos de corriente de bits BSD.
Las Figuras 8 a 10 ilustran ejemplos de la configuración de corriente de transporte (datos de corriente de bits) . En la corriente de transporte, un paquete de PES que se adquiere al formar cada corriente elemental como paquete se incluye. En estos ejemplos de la configuración, un paquete de PES "PES de Video" de la corriente elemental de video y un paquete de PES "PES de Audio" de la corriente elemental de audio se incluyen.
Además, en la corriente de transporte, una tabla de mapa de programa (PMT) se incluye como información especifica de programa (PSI) . La PSI es información que describe un programa al cual cada corriente elemental incluida en la corriente de transporte pertenece. Además, la corriente de transporte, una tabla de información de evento (EIT) como información con servicio (SI) que realiza el manejo en unidades de eventos se incluye. En la EIT, los metadatos en unidades de programa se describen.
En la PMT, existe un descriptor de programa que describe información con respecto a todo el programa. Además, en la PMT, existe un bucle elemental que tiene información con respecto a cada corriente elemental. En este ejemplo de configuración, existe un bucle elemental de video y un bucle elemental de audio. En cada bucle elemental, para cada corriente, la información tal como identificador de paquete (PID) se dispone, y aunque no se ilustra en la Figura, un descriptor que describe información con respecto a la corriente elemental también se dispone.
En un ejemplo de la configuración de una corriente de transporte ilustrada en la Figura 8, bajo la EIT, un descriptor (descriptor z-OSD) que incluye un conjunto de información de disparidad se inserta. Además, en un ejemplo de configuración de una corriente de transporte ilustrada en la Figura 9, un descriptor (descriptor z-OSD) que incluye un conjunto de información de disparidad se inserta en un descriptor de programa incluido en la PMT. Además, en un ejemplo de la configuración de una corriente de transporte ilustrada en la Figura 10, un descriptor que incluye un conjunto de información de disparidad se dispone en una parte del descriptor de un bucle elemental de video (bucle de ES de Video) .
[Unidad de Generación de Conjunto de Información de Disparidad]
La generación de un conjunto de información de disparidad que utiliza la unidad 122 de generación de conjunto de información de disparidad (véase Figura 2) se describirá en detalle. La unidad 122 de generación de conjunto de información de disparidad genera un conjunto de información de disparidad, por ejemplo, de acuerdo con el siguiente Caso 1 a Caso 6.
[Caso 1]
La unidad 122 de generación de conjunto de información de disparidad, como se describe en lo anterior, genera un conjunto de información de disparidad para una posición de pixel predeterminada que corresponde con los datos de imágenes estereoscópicas de un programa predeterminado. En el conjunto de información de disparidad, los datos de posición para una posición de pixel predeterminada en los datos de disparidad para la posición de pixel predeterminada se incluyen. Las posiciones de pixel predeterminada se establecen de manera arbitraria por la operación de ajuste de un usuario o se establecen de manera automática, y el número de posiciones de pixeles predeterminadas no se limita. Aquí, la posición de pixel predeterminada (x, y) se representa por coordenadas en las cuales se establece un centro de imagen O como su origen (0,0). Además, en el "Caso 1", el origen (0,0) se excluye del dominio de las posiciones de pixel predeterminadas.
En este "Caso 1", los datos de posición se forman por los datos de dirección que representan la dirección para una posición de pixel predeterminada desde el origen (0,0) y los datos de distancia que representan una distancia desde el origen (0,0) hasta la posición de pixel predeterminada. Los datos de dirección para una posición de pixel (x, y) se configuran por datos de tangente (tan T = y/x) y un identificador de zona (Zone_id) de dos bits que se utiliza para identificar un cuadrante en el cual se ubica la posición de pixel (x, y) . Por ejemplo, "Zone_id = 00" representa el primer cuadrante, "Zone_id = 01" representa el segundo cuadrante, "Zone_id = 10" representa el tercer cuadrante, y "Zone_id = 11" representa el cuarto cuadrante.
Además, los datos de distancia (Escala de Línea) para la posición de pixel (x, y) se configura para representar la relación con la longitud de un segmento desde el origen (0,0) que pasa a través de la posición de pixel ( y) y llega al final de una región de imagen. En tal caso, cuando a una distancia desde el origen (0,0) hasta la posición de pixel (x, y) es L, y la longitud de un segmento que pasa a través de la posición de pixel (x, y) desde el origen y llega al final de la región de imagen es LineFull, Line Scale = L/LineFull.
En este "Caso 1", los datos de disparidad para la posición de pixel (x, y) se configuran para ser datos que representan la relación del valor de la información de disparidad (vector de disparidad) en la posición de pixel (x, y) hasta una distancia desde el origen (0,0) hasta la posición de pixel (x, y) . En otras palabras, cuando la distancia desde el origen (0,0) hasta la posición de pixel (x, y) es L, y el valor de la información de disparidad (vector de disparidad) para la posición de pixel (x, y) es D, los datos de disparidad (Disparity Gradient: tan <j>) es tan ? = D/L.
Después de esto, se describirá un caso en el cual una primera posición de pixel en la cual el valor de la información de disparidad es el máximo (Max) y una posición de pixel (segunda posición de pixel) en la cual el valor de la información de disparidad es el mínimo (Min) se establecen como posiciones predeterminadas. La posición de pixel en la cual el valor de la información de disparidad es el máximo representa una posición en la cual se reconoce una imagen por encontrarse más cerca. Además, la posición de pixel en la cual el valor de la información de disparidad es el mínimo en representa una posición en la cual una imagen se reconoce por ser la más alejada. En tal caso, el lado de recepción puede adquirir un ancho entre máximo y el mínimo de los valores de información de disparidad, por lo que la profundidad de una imagen estereoscópica puede ajustarse.
Las Figuras 11 y 12 ilustran ejemplos de posiciones bidimensionales (Dirección 2D) de la primera posición de pixel (?ß, y ) y la segunda posición de pixel (xa, ya) en toda la imagen. Las coordenadas (?ß, yP) y las coordenadas (xa, ya) representan las coordenadas de las posiciones de pixel cuando el centro de la imagen se establece como el origen (0,0) .
El conjunto de información de disparidad para la primera posición de pixel (?ß, ?ß) se describe. Los datos de posición se forman por los datos de dirección y los datos de distancia (Line Scale_ ) . Además, los datos de dirección se configuran por los datos de tangente (tan ?ß) y un identificador de zona (Zone_id_P) . La unidad 122 de generación de conjunto de información de disparidad, como se ilustra en la Figura 11, adquiere los datos de tangente (tan ?ß) como "tan ?ß = ?ß/?ß" . Además, puesto que (?ß, y ) se establece en el cuarto cuadrante como se ilustra en la Figura 11, la unidad 122 de generación de conjunto de información de disparidad establece el identificador de zona (???ß_??_ß) para ser "???ß_??_ß = 11".
Además, la unidad 122 de generación de conjunto de información de disparidad adquiere los datos de distancia (Line Scale_ß) , como se ilustra en la Figura 11, como "Line Scaleji = Lß/LineFull_ß" . Aquí, L = ?/(?ß2 + ?ß2) y LineFull_ß = V( (E_h)2 + (PV/2)2) .
Además, la unidad 122 de generación de conjunto de información de disparidad, como se ilustra en la Figura 12, adquiere los datos de disparidad (DisparityGradient : tan fß) , "tan fß = ?ß^ß" . Aquí, ?ß es el valor de la información de disparidad (vector de disparidad) para la posición de pixel (?ß, ?ß) , y Lp = <?ß2 + ?ß2) .
Después, el conjunto de información de disparidad para la segunda posición de pixel (xa, ya) se describirá. Los datos de posición se forman con los datos de dirección y los datos de distancia (Line Scale_oc) . Además, los datos de dirección se configuran por los datos de tangente (tan ?a) y un identificador de zona (Zone_id_a) . La unidad 122 de generación de conjunto de información de disparidad, como se ilustrada en la Figura 11, adquiere los datos de tangente (tan ?a) como "tan ? = ya/?a". Además, puesto que (xa, ya) se encuentra en el primer cuadrante como se ilustra en la Figura 11, la unidad 122 de generación de conjunto de información de disparidad restablece el identificador de zona (Zone_id_a) para ser "Zone_id_a = 00".
Además, la unidad 122 de generación de conjunto de información de disparidad adquiere los datos de distancia (Line Scale_a) , como se ilustra en la Figura 11, como "Line Scale_a = La/LineFull_a" . Aquí, La = V(xa2 + ya2) y LineFull_a = V((PH/2)2 + (E_v)2).
Además, la unidad 122 de generación de conjunto de información de disparidad, como se ilustra en la Figura 12, adquiere los datos de disparidad (DisparityGradient : tan fa) , como "tan fa = Da/La". Aquí, Da es el valor de la información de disparidad (vector de disparidad) para la posición de pixel (xa, ya) , y La = V(xa2 + ya2) .
Un diagrama de flujo de la Figura 13 ilustra la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 1" en la unidad 122 de generación de conjunto de información de disparidad. La unidad 122 de generación de conjunto de información de disparidad en la Etapa ST1 , comprueba el tamaño vertical (PV = Tamaño Vertical de Imagen de Fuente) , el tamaño horizontal (PH = Tamaño Horizontal de Imagen de Fuente) , y la relación de aspecto (Relación de Aspecto de Imagen) de una imagen de fuente .
Después, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST2, marca el valor de una información de disparidad predeterminada (vector de disparidad) y las coordenadas (xl, yl) de la misma al explorar el mapa de disparidad. En estas coordenadas (xl, yl) , el lado izquierdo superior (izquierdo-superior) de la imagen se establece como el origen (0,0) .
Después, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST3 , convierte las coordenadas (xl, yl) en coordenadas (x, y) que tienen el centro de imagen O como su origen (0,0). Las ecuaciones de conversión en este caso son x = xl - PH/2 y y = yl - PV/2.
Después, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST4 adquiere los datos de tangente (tan T = y/x) que configura los datos de dirección de la posición de pixel (x, y) de un identificador de zona (Zone_id) de dos bits que se utilizan para identificar el cuadrante en el cual se ubica la posición de pixel (x, y) . Además, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST4, adquiere datos de distancia (Line Scale = L/LineFull) para la posición de pixel (x, y) .
Aquí, la "LineFull" se adquiere como sigue basándose en la relación con la relación de aspecto. Aquí, aunque se ilustra un caso en el cual la relación de aspecto es 9/16, puede aplicarse de manera similar a un caso donde la relación de aspecto es diferente a la relación de aspecto antes descrita. En un caso donde | tan ?|<9/16, "LineFull = V((E_v)2 + (PH/2)2)". Por otro lado, en un caso donde |tan ?|>9/16, "LineFull = V((E_h)2 + (PV/2)2)".
Además, "L" se adquiere como sigue basándose en la relación con la relación de aspecto. En el caso donde I tan ?|<9/16, "L = LineFull* (x/ ( PH/2 ) ) " . Por otro lado, en un caso donde | tan ?|>9/16, "L = LineFull* (y/PV/2 ))" .
Después, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST5, adquiere datos de disparidad (Disparity Gradient : tan f = D/L) , para la posición de pixel (x, y) .
[Caso 2]
La unidad 122 de generación de conjunto de información de disparidad, como se describe en lo anterior, genera un conjunto de información de disparidad para una
posición de pixel predeterminada que corresponde con los datos de imágenes estereoscópicas de un programa predeterminado. En el conjunto de información de disparidad, los datos de posición para la posición de pixel predeterminada y los datos de disparidad para la posición de pixel predeterminada se incluyen. Las posiciones de pixel predeterminadas se establecen de manera arbitraria por la operación de ajuste de usuario o se establecen de manera automática, y el número de posiciones de pixel predeterminadas no se limita. Aquí, la posición de pixel predeterminada (x, y) se representa por las coordenadas en las cuales un centro de imagen O se establece como el origen (0,0). Además, en el "Caso 2" el origen (0,0) se excluye del dominio de las posiciones de pixel predeterminadas .
En este "Caso 2", los datos de posición, similarmente al "Caso 1" descrito en lo anterior, se forman por los datos de dirección que representan la dirección para una posición de pixel predeterminada desde el origen (0,0), y los datos de distancia que representan una distancia desde el origen (0,0) hasta la posición de pixel predeterminada. Los datos de dirección para una posición de pixel (x, y) se configuran por los datos de tangente (tan T = y/x) y un identificador de zona (Zone_id) de dos bits que se utilizan para identificar un cuadrante en el cual se ubica la posición de pixel (x, y) .
Además, los datos de distancia (Line Scale) para la posición de pixel (x, y) se configuran para representar la relación a la longitud de un segmento desde el origen (0, 0) que pasa a través de la posición de pixel (x, y) y llega al final de una región de imagen. En tal caso, cuando una distancia desde el origen (0, 0) a la posición de pixel (x, y) es La, y la longitud de un segmento que pasa a través de la posición de pixel (x, y) desde el origen y llega al final de la región de imagen es LineFull, Line Scale = Lcc/LineFull.
Además, en este "Caso 2", los datos de disparidad para la posición de pixel (x, y) se establece como un valor de la información de disparidad (vector de disparidad) en la resolución de visualizacion específica para la posición de pixel (x, y) .
Como en lo anterior, en este "Caso 2", la unidad
122 de generación de conjunto de información de disparidad genera datos de posición (datos de dirección y datos de distancia) que son similares a aquellos del "Caso 1" antes descrito como los datos de posición para una posición de pixel predeterminad. Además, en este "Caso 2", la unidad 122 de generación de conjunto de información de disparidad, como los datos de disparidad para la posición de pixel predeterminada, genera información de disparidad (vector de disparidad) a una resolución de visualizacion específica para la posición de pixel (x, y) . La resolución de visualizacion específica, por ejemplo, es la resolución de HD total de 1920 x 1080.
Por consiguiente, la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 2" en la unidad 122 de generación de conjunto de información de disparidad se realiza de manera similar a la secuencia de procesamiento ilustrada en el diagrama de flujo antes descrito de la Figura 13 excepto por el proceso de solicitar los datos de disparidad de la Etapa ST5. En otras palabras, en la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 2", como datos de disparidad para coordenadas (x, y) , información de disparidad (vector de disparidad) en una resolución de visualización específica para las coordenadas (x, y) se adquiere.
[Caso 3]
La unidad 122 de generación de conjunto de información de disparidad, como se describe en lo anterior genera un conjunto de información de disparidad para una posición de pixel predeterminada que corresponde con los datos de imágenes estereoscópicas de un programa predeterminado. En el conjunto de información de disparidad, los datos de posición para la posición de pixel predeterminada y los datos de disparidad para la posición de pixel predeterminada se incluyen. Las posiciones de pixel predeterminada se establecen de manera arbitraria por la operación de ajuste de un usuario o se establecen de manera automática, y el número de posiciones de pixel predeterminadas no se limita. Aguí, la posición de pixel predeterminada (x, y) se representa por coordenadas en las cuales un centro de imagen 0 se establece como el origen (0, 0) . Además, en el "Caso 3", el origen (0, 0) se excluye a partir del dominio de las posiciones de pixel predeterminadas.
En este "Caso 3", los datos de posición se forman por los datos de dirección que representan la dirección para una posición de pixel predeterminada desde el origen (0, 0) y los datos de distancia que representan una distancia desde el origen (0, 0) hasta la posición de pixel predeterminada. La dirección para una posición de pixel (x, y) se selecciona de ocho direcciones que incluyen direcciones ascendente, descendente, a la izquierda y a la derecha y direcciones interpuestas entre las misma, las cuales se establecen con anticipación, 16 direcciones que incluyen direcciones interpuestas entre las mismas, o similares. En otras palabras, los datos de dirección para la posición de pixel (x, y) se establecen como datos que representan directamente una dirección.
Por ejemplo, en un caso donde los datos de dirección se configuran por datos de 3 bits como se ilustra en la Figura 14, una dirección puede designarse de manera selectiva de entre ocho direcciones que incluyen las direcciones ascendente, descendente, a la izquierda y a la derecha y direcciones interpuestas entre las mismas al utilizar los datos de 3 bits.
Además, los datos de distancia (Line Scale) para la posición de pixel (x, y) , de manera similar al "Caso 1" antes descrito, y se configuran para representar la relación con la longitud de un segmento desde el origen (0, 0) que pasa a través de la porción de pixel (x, y) y llega al final de una región de imagen. En tal caso, cuando una distancia desde el origen (0, 0) hasta la posición de pixel (x, y) es L, y la longitud de un segmento que pasa a través de la posición de pixel (x, y) desde el origen y llega al final de la región de imagen es LineFull, Line Scale = L/LineFull.
En este "Caso 3", los datos de disparidad para posición de pixel (x, y) se configuran para ser datos que representan la relación del valor de la información de disparidad (vector de disparidad) en la posición de pixel (x, y) hasta una distancias desde el origen (0, 0) hasta la posición de pixel (x, y) . En otras palabras, cuando la distancia desde el origen (0, 0) hasta la posición de pixel (x, y) es L, y el valor de la información de disparidad (vector de disparidad) para la porción de pixel (x, y) es D, los datos de disparidad (Disparity Gradient: tan f) es tan f = D/L.
Después de esto, se describirá un caso en el cual una posición de pixel ubicada en una dirección dispuesta entre la dirección ascendente y la dirección a la derecha se establece como la posición de pixel predeterminada. Por ejemplo, esta posición de pixel es una posición de pixel en la cual el valor de la información de disparidad (vector de disparidad es el máximo (Max) . La posición de pixel en la cual el valor de la información de disparidad es el mínimo representa una posición en la cual la imagen se reconoce por ser la más cercana.
Las Figuras 15 y 16 ilustran ejemplos de posiciones bidimensionales (dirección 2D) de la posición de pixel (xa, ya) en toda la imagen. Aquí, (xa, ya) representa las coordenadas de la posición de pixel cuando el centro de la imagen se establece como el origen (0, 0) .
El conjunto de información de disparidad para la posición de pixel (xa, ya) se describirán. Los datos de posición se forman por los datos de dirección (Direction_a) y los datos de distancia (Line Scale_a) . La unidad 122 de generación de conjunto de información de disparidad, como se ilustra en la Figura 15, establece los datos de dirección (Direction_a) como "Direction_a=001" .
Además, la unidad 122 de generación de conjunto de información de disparidad adquiere los datos de distancia (Line Scale_P) , como se ilustra en la Figura 15, como "Line Scale_a=La/LineFull_a" . Aquí, La=V(xa2 + ya2), y LineFull La_a=V( (PH/2)2 + (PV/2)2).
Además, la unidad 122 de generación de conjunto de información de disparidad, como se ilustra en la Figura 16, adquiere los datos de disparidad (DisparityGradient : tan <|>a) como "tan <|>a = Da/La". Aquí, Da es el valor de la información de disparidad (vector de disparidad) para la posición de pixel (xa, ya) , y La=V(xa2 + ya2) .
Un diagrama de flujo de la Figura 17 ilustra la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 3" en la unidad 122 de generación de conjunto de información de disparidad. La unidad 122 de generación de conjunto de información de disparidad, en la Etapa STll, comprueba el tamaño vertical (PV= Tamaño Vertical de Imagen de Fuente) , el tamaño horizontal (PH= Tamaño Horizontal de Imagen de Fuente) , y la relación de aspecto (Relación de Aspecto de Imagen) de una imagen de fuente.
Después, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST12 , marca el valor de una información de disparidad predeterminada (vector de disparidad) y las coordenadas (xl, yl) de la misma al explorar el mapa de disparidad. En estas coordenadas (xl, yl), el lado izquierdo superior (izquierdo-superior) de la imagen se establece como el origen (0, 0) .
Después, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST13 , convierte las coordenadas (xl, yl) en coordenadas (x, y) que tienen el centro de imagen O como su origen (0, 0) . Las ecuaciones de conversión en este caso son x=xl - PH/2 e y=yl - PV/2. Aquí, existe un caso en donde las coordenadas (x, y) después de la conversión se ubican en una línea dispuesta en una de las ocho direcciones, 16 direcciones, o similares que se establecen con anticipación desde el origen (0, 0) y un caso en donde las coordenadas después de la conversión no se encuentran en tal línea. En un caso en donde las coordenadas no se encuentran en tal línea, por ejemplo, en lugar de las coordenadas (x, y) después de la conversión, las coordenadas ubicadas en una línea que es la más cercana se establecen como nuevas coordenadas (x, y) .
Después, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST14, adquiere datos de dirección (Dirección) para la posición de pixel (x, y) datos de distancia (Line Scale = L/LineFull) para la posición de (x, y) .
Aquí, "LineFull" se adquiere como sigue basándose en la relación con la relación de aspecto. Aquí, aunque se ilustra un caso en el cual la relación de aspecto es 9/16, puede aplicarse similarmente a un caso en donde la relación de aspecto es diferente a la relación de aspecto antes descrita. En un caso en donde | tan f|<9/16, LineFull= ( (E_v) 2 + (PH/2)2". Por otro lado en un caso en donde | tan f|=9/16, LineFull= ( (E_h)2 + (PV/2)2". Además, E_v satisface 0=E_v=PH/2, y E_h satisface 0=E_h=PV/2 (véase Figura 12) .
Además, "L" se adquiere como sigue basándose en la relación con la relación de aspecto en un caso en donde | tan f|<9/16, "L=LineFull* (x/ (PH/2) ) " . Por otro lado, en un caso donde ^? f|>9/16, ML=LineFull* (y/ (PH/2) ) " .
Después, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST15, adquiere datos de disparidad (Disparity Gradient: tan f= D/L) para la posición de pixel (x, y) .
[Caso 4]
La unidad 122 de generación de conjunto de información de disparidad, como se describe en lo anterior genera un conjunto de información de disparidad para una posición de pixel predeterminada que corresponde con los datos de imágenes estereoscópicas de un programa predeterminado. En el conjunto de información de disparidad, los datos de posición para la posición de pixel predeterminada y los datos de disparidad para la posición de pixel predeterminada se incluyen. Las posiciones de pixel predeterminada se establecen de manera arbitraria por la operación de ajuste de un usuario o se establecen de manera automática, y el número de posiciones de pixel predeterminadas no se limita. Aquí, la posición de pixel predeterminada (x, y) se representa por coordenadas en las cuales un centro de imagen 0 se establece como el origen (0, 0) . Además, en el "Caso 4", el origen (0, 0) se excluye a partir del dominio de las posiciones de pixel predeterminadas .
En este "Caso 4", los datos de posición se forman por los datos de dirección que representan la dirección para una posición de pixel predeterminada desde el origen (0, 0) y los datos de distancia que representan una distancia desde el origen (0, 0) hasta la posición de pixel predeterminada. La dirección para una posición de pixel (x, y) se selecciona de ocho direcciones que incluyen direcciones ascendente, descendente, a la izquierda y a la derecha y direcciones interpuestas entre las misma, las cuales se establecen con anticipación, 16 direcciones que incluyen direcciones interpuestas entre las mismas, o similares. En otras palabras, los datos de dirección para la posición de pixel (x, y) se establecen como datos que representan directamente una dirección.
Además, los datos de distancia (Line Scale) para la posición de pixel (x, y), de manera similar al "Caso 1" antes descrito, y se configuran para representar la relación con la longitud de un segmento desde el origen (0, 0) que pasa a través de la porción de pixel (x, y) y llega al final de una región de imagen. En tal caso, cuando una distancia desde el origen (0, 0) hasta la posición de pixel (x, y) es L, y la longitud de un segmento que pasa a través de la posición de pixel (x, y) desde el origen y llega al final de la región de imagen es LineFull, Line Scale = L/LineFull.
Además, en este "Caso 4", los datos de disparidad para posición de pixel (x, y) se configuran para ser un valor de la información de disparidad (vector de disparidad) a una resolución de visualización específica para la posición de pixel (x, y) .
Como en lo anterior, en este "Caso 4", la unidad 122 de generación de conjunto de información de disparidad genera datos de posición (datos de dirección y datos de distancia) que son similares aquellos del "Caso 3" antes descrito como los datos de posición para una porción de pixel predeterminada. Además, en este "Caso 4" la unidad 122 de generación de conjunto de información de disparidad, como los daros de disparidad para la posición de pixel predeterminada, genera la información de disparidad (vector de disparidad) en la resolución de visualización específica para posición de pixel predeterminada (x, y) . La resolución de visualización específica, por ejemplo, es la resolución de HD total de 1920 x 1080.
Por consiguiente, la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 4" en la unidad 122 de generación de conjunto de información de disparidad se realiza de manera similar a la secuencia de procesamiento ilustrada en el diagrama de flujo antes descrito de la Figura 17 excepto por el proceso de solicitar los datos de disparidad da la Etapa ST15. En otras palabras, en la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 4", como datos de disparidad para las coordenadas (x, y) , la información de disparidad (vector de disparidad) en una resolución de visualización específica para las coordenada (x, y) se adquieren.
[Caso 5]
La unidad 122 de generación de conjunto de información de disparidad, como se describe en lo anterior genera un conjunto de información de disparidad para una posición de pixel predeterminada que corresponde con los datos de imágenes estereoscópicas de un programa predeterminado. En el conjunto de información de disparidad, los datos de posición para la posición de pixel predeterminada y los datos de disparidad para la posición de pixel predeterminada se incluyen. Las posiciones de pixel predeterminada se establecen de manera arbitraria por la operación de ajuste de un usuario o se establecen de manera automática, y el número de posiciones de pixel predeterminadas no se limita.
Aquí, una posición de pixel predeterminada (x, y) se representa por coordenadas que tiene el centro de imagen 0 como su punto de origen (0, 0) en el Modo de Coordenada 0. Además, una posición de pixel predeterminada (x, y) se representa por coordenadas que tienen el lado izquierdo superior (izquierdo-superior) como su punto de origen (0, 0) en el Modo de Coordenada 1.
En este "Caso 5", los datos de posición se forman por los datos de distancia horizontal (Rxa) que representan una distancia horizontal desde el origen (0, 0) y los datos de distancia vertical (Rya) que representan una distancia vertical desde el origen (0, 0) . Los datos de distancia horizontal (Rxa) se representan como una relación con respecto al tamaño de la imagen en la dirección horizontal. En el Modo de Coordenada 0, "Rxa = x/ (PH/2 ) *100 " . Además, en el Modo de Coordenada 1, "Rxa =x/ (PH) *100 " . Aguí, PH representa el tamaño de la imagen en la dirección horizontal. Además, los datos de distancia vertical Rya se representan como una relación de la imagen en el tamaño de dirección vertical. En el Modo de Coordenada 0, "Rya i= y/ (PV/2 ) *100.
Además, en el Modo de Coordenada 1, "Rya = y/(PV)*100". Aquí, PV ilustra el tamaño de la imagen en la dirección vertical.
En este "Caso 5", los datos de disparidad para la posición de píxel (x, y) se configuran para ser un valor de la información de disparidad (vector de disparidad) en una resolución de visualización específica para la posición de píxel (x, y) . La resolución de visualización específica, por ejemplo, es la resolución de HD total de 1920 x 1080.
Después de esto, se describirá un caso en el cual una primera posición de píxel en la cual el valor de la información de disparidad es el máximo (Max) y una posición de píxel (segunda posición de píxel) en la cual el valor de la información de disparidad es el mínimo (Min) se establecen con posiciones de píxel predeterminadas. La posición de píxel en la cual el valor de la información de disparidad es el máximo representa una posición en la cual una imagen se reconoce por ser la más cercana. Además, la posición de píxel en la cual el valor de la información de disparidad es el mínimo representa una posición en la cual una imagen se reconoce que es la más alejada. En tal caso, el lado de recepción puede adquirir un ancho entre el máximo y el mínimo de los valores de información de disparidad, por lo que la profundidad de una imagen estereoscópica puede ajustarse.
La Figura 18 ilustra un ejemplo de posiciones bidimensionales (Dirección 2D) de la primera posición de pixel (?ß, ?ß) y la segunda posición de pixel (xa, ya) en toda la imagen, en Modo de Coordenada 0. En tal caso, las coordenadas (?ß, ?ß) y las coordenadas (xa, ya) representan las coordenadas de las posiciones de pixeles cuando el centro de imagen O se establece como el origen (0, 0) . Además, la Figura 19 ilustra un ejemplo de posiciones bidimensionales (Dirección 2D) de la primera posición de pixel (?ß, ?ß) y la segunda posición de pixel (xa, ya) en toda la imagen, en el Modo de Coordenada 1. En tal caso, las coordenadas (?ß, ?ß) y las coordenadas (xa, ya) representan las coordenadas de las posiciones de pixeles cuando el lado izquierdo superior (izquierdo superior) se establece como el origen (0, 0) .
El conjunto de información de disparidad para la primera posición de pixel (?ß, ?ß) se describirán. Los datos de posición, como se describe en lo anterior se forman por los datos de distancia horizontal (Rxa) y los datos de distancia vertical (Rya) . La unidad 122 de generación de conjunto de información de disparidad, en el Modo de Coordenada 0, como se ilustra en la Figura 18, adquiere los datos de distancia horizontal (Rxa) como "Rxa = ?ß/ (PH/2) *100" y adquiere los datos de distancia vertical (Rya) como "Rya = ?ß/ (PV/2 ) *100 " . Además, la unidad 122 de generación de conjunto de información de disparidad, en el Modo de Coordenada 1, como se ilustra en la Figura 19, adquiere los datos de distancia horizontal (Rxa) como "Rxa = ?ß/(??)*100" y adquiere los datos de distancia vertical (Rya), como "Rya = ?ß/ (PV) *100 " .
Además, la unidad 122 de generación de conjunto de información de disparidad adquiere información de disparidad (vector de disparidad) en la resolución de visualización específica para la primera posición de píxel (?ß, ?ß) como los datos de disparidad (Disparity) para la primera posición de píxel (?ß, yP) .
Después, el conjunto de información de disparidad para la segunda posición de píxel (xa, ya) se describirá. Los datos de posición, como se describe en lo anterior, se forman por los datos de distancia horizontal (Rxa) y los datos de distancia vertical (Rya) . La unidad 122 de generación de conjunto de información de disparidad, en el Modo de Coordenada 0, como se ilustra en la Figura 18, adquiere los datos de distancia horizontal (Rxa) como "Rxa = ?a/ (PH/2) *100" y adquiere los datos de distancia vertical (Rya) como "Rya = ya/ (PV/2 ) *100 " . Además, la unidad 122 de generación de conjunto de información de disparidad, en el Modo de Coordenada 1, como se ilustra en la Figura 19, adquiere los datos de distancia horizontal (Rxa) como "Rxa = xa/(PH)*100" y adquiere los datos de distancia vertical (Rya) como "Rya = ya/ (PV) *100" .
Además, la unidad 122 de generación de conjunto de información de disparidad adquiere la información de disparidad (vector de disparidad) en la resolución de visualización específica para la segunda posición de píxel ( a, ya) como los datos de disparidad (Disparity) para la segunda posición de píxel (xa, ya) .
Un diagrama de flujo de la Figura 20 ilustra la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 5" en la unidad 122 de generación de conjunto de información de disparidad. La unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST21, comprueba el tamaño vertical (PV = Tamaño Vertical de Imagen de Fuente) , el tamaño horizontal (PH = Tamaño Horizontal de Imagen de Fuente) , y la relación de aspecto (Relación de Aspecto de Imagen) de una imagen de fuente .
Después, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST22, marca el valor de una información de disparidad predeterminada (vector de disparidad) y las coordenadas (xl, yl) de la misma al explorar el mapa de disparidad. En estas coordenadas (xl, yl) , el lado izquierdo superior (izquierdo superior) de la imagen se establece como el origen (0, 0) .
Después, la unidad 122 de generación de conjunto de información de disparidad procede al proceso de la Etapa ST23 cuando se encuentra en el Modo de Coordenada 0. En esta Etapa ST23, la unidad 122 de generación de conjunto de información de disparidad convierte las coordenadas (xl, yl) en coordenadas (x, y) que tienen el centro de imagen 0 como su origen (0, 0). Las ecuaciones de conversión en este caso son x = xl - PH/2 e y = yl - PV/2.
Después, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST24, adquiere los datos de distancia horizontal (Rxa) y los datos de distancia vertical (Rya) para la posición de píxel (x, y) . En tal caso, "Rxa = xa/ (PH/2) *100" ,y "Rya = ya/ (PV/2 ) *100 " . Además, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST25, adquiere los datos de disparidad (Disparity) . En tal caso, la información de disparidad (vector de disparidad) en la resolución de visualización específica para las coordenadas (x, y) se adquieren como los datos de disparidad (Disparity) .
Además , cuando se encuentra en el Modo de Coordenadas 1 después del proceso de la Etapa ST22, la unidad 122 de generación de conjunto de información de disparidad procede al proceso de la Etapa ST26. En este caso, las coordenadas (xl, yl) se utilizan directamente como coordenadas (x, y). En la Etapa ST26, la unidad 122 de generación de conjunto de información de disparidad adquiere datos de distancia horizontal (Rxa) y datos de distancia vertical (Rya) para la posición de píxel (x, y) . En este caso, "Rxa = xa/ (PHd) *100 " , y "Rya = ya/ (PV) *100" . Además, la unidad 122 de generación de conjunto de información de disparidad, en la Etapa ST27, adquiere datos de disparidad (Disparity) . En este caso, la información de disparidad (vector de disparidad) en la resolución de visualización especifica para las coordenadas (x, y) se adquiere como los datos de disparidad (Disparity) .
[Caso 6]
La unidad 122 de generación de conjunto de información de disparidad, como se describe en lo anterior genera un conjunto de información de disparidad para una posición de píxel predeterminada que corresponde con los datos de imágenes estereoscópicas de un programa predeterminado. En el conjunto de información de disparidad, los datos de posición para la posición de píxel predeterminada y los datos de disparidad para la posición de píxel predeterminada se incluyen. Las posiciones de píxel predeterminada se establecen de manera arbitraria por la operación de ajuste de un usuario o se establecen de manera automática, y el número de posiciones de píxel predeterminadas no se limita.
Aquí, cuando se encuentra en el Modo de Coordenadas 0, la posición de píxel predeterminada (x, y) se representa por coordenadas en las cuales un centro de imagen O se establece como su origen (0, 0) . Además, cuando se encuentra en el Modo de Coordenadas 1, la posición de píxel predeterminada (x, y) se representa por coordenadas en las cuales el lado izquierdo superior (izquierdo superior) de la imagen se establece como su origen (0, 0) .
En este "Caso 6", los datos de posición se forman por datos de distancia horizontal (Rxa) que representa una distancia horizontal desde el origen (0,0) y los datos de distancia vertical (Rya) que representan una distancia vertical desde el origen (0,0). Los datos de distancia horizontal Rxa se representan como una relación con respecto al tamaño de la imagen en la dirección horizontal. En el Modo de Coordenadas 0, "Rxa = x/ (PH/2) *100" . Además, en el Modo de Coordenadas 1, "Rxa = x/(PH)*100". Aquí, PH representa el tamaño de la imagen en la dirección horizontal. Además, los datos de distancia vertical Rya se representa como una relación con la imagen en el tamaño de dirección horizontal. En el Modo de Coordenadas 0, "Rya = y/ (PV/2) *100" . Además, en el Modo de Coordenadas 1, "Rya = y/(PH)*100". Aquí PV ilustra el tamaño de la imagen en la dirección horizontal.
En este "Caso 6", los datos de disparidad
(Relative_Disparity_ratio) para la posición de píxel (x, y) se configura para no ser un valor de la información de disparidad (vector de disparidad) en una resolución de visualización específica para la posición de píxel (x, y) sino para ser los datos que representan la relación con respecto a la resolución horizontal PH. Por ejemplo, como se ilustra en la Figura 21, en el caso de HD total de 1920 x 1080, los datos de disparidad (Relative_Disparityi_ratio) se adquieren como "Relative_Disparity_ratio = valor de información de disparidad/1920*Factor" . Por ejemplo, en un caso donde el valor de información de disparidad es +60 píxeles, Relative_Disparity_ratio = 60/1920*Factor .
Como en lo anterior, en este "Caso 6", la unidad 122 de generación de conjunto de información de disparidad genera datos de posición (los datos de distancia horizontal y los datos de distancia vertical) que son similares para aquellos del "Caso 5" antes descrito como los datos de posición para la posición de píxel predeterminada. Además, en este "Caso 6", la unidad 122 de generación de conjunto de información de disparidad genera datos
(Relative_Disparity_ratio) que representan una relación del valor de información de disparidad de la posición de píxel (x, y) con la resolución de visualización horizontal PH como los datos de disparidad para una posición de píxel predeterminada.
Por consiguiente, la secuencia de procesamiento para generar un conjunto de información de disparidad en el "Caso 6" en la unidad 122 de generación de conjunto de información de disparidad se realizar de manera similar a la secuencia de procesamiento ilustrada en el diagrama de flujo antes descrito de la Figura 20 excepto que el contenido de los datos de disparidad adquiridos en la Etapa ST25 y la Etapa ST27 son diferentes de aquellos del diagrama de flujo de la Figura 20.
[Estructura del Conjunto de Información de Disparidad]
Después, ejemplos del contenido del conjunto de información de disparidad que se generan por la unidad 122 de generación de conjunto de información de disparidad se describirán. Las Figuras 22 a 25, 27 y 28 ilustran ejemplos del contenido del conjunto de información de disparidad. Las Figuras 26 y 29 ilustran datos principales que especifican contenidos (semántica) en los ejemplos de contenido.
La Figura 22 ilustra un ejemplo del contenido del conjunto de información de disparidad que se genera en el "Caso 1" antes descrito. "TS (Segmento de tiempo) " es datos de 8 bits que representan el número de períodos igualmente divididos de un evento, un programa, una escena, o similares. "TS = 1" representa que el período no se divide. "Subdivisión" es datos de 8 bits que representan el número de períodos igualmente divididos de cada segmento del tiempo. "Subdivisión = 1" representa que el segmento de tiempo no se divide .
El "Número de Línea de Dirección" representa el número total de conjuntos de información de disparidad. Por ejemplo, en un caso donde existen dos conjuntos de información de disparidad que incluyen la primera posición de píxel en la cual el valor de la información de disparidad es el máximo (Max) , y la posición de píxel (segunda posición de píxel) en la cual el valor de la información de disparidad es el mínimo (Min) , se supone que "Número de Línea de Dirección = 1) " . La "Zone_id" es un identificador de zona de 2 bits que configura los datos de dirección de la porción de píxel (x, y) . Como se describe en lo anterior, la "Zone_id = 00" representa el primer cuadrante, "Zone_id = 01" representa el segundo cuadrante, "Zone_id = 10" representa el tercer cuadrante, y "Zone_id = 11" representa el cuarto cuadrante.
La " 2D-direction_theta" es los datos de 10 bits que representan los datos de tangente (tan T = y/x) que configuran los datos de dirección para la posición de píxel (x,y) . La "Line Scale" es los datos de 10 bits que representan una distancia relativa (Line Scale = L/LineFull) desde el origen (0, 0) hasta la posición de píxel (x, y) . " Disparity_gradient_phai " es datos de 12 bits que representan una relación (tan f = D/L) del valor de la información de disparidad (vector de disparidad) para la posición de píxel (x, y) con la distancia desde el origen (0, 0) hasta la posición de píxel (x, y) .
La Figura 23 ilustra un ejemplo del contenido de un conjunto de información de disparidad que se genera en el "Caso 2" antes descrito. El ejemplo del contenido del conjunto de información de disparidad de la Figura 23 es similar al ejemplo del contenido del conjunto de información de disparidad de la Figura 22 descrito en lo anterior excepto que "Disparity_gradient_phai " se reemplaza por "Disparity" .
"Disparity" es datos de 12 bits que representan el valor de la información de disparidad (vector de disparidad) .
La Figura 24 ilustra un ejemplo del contenido de un conjunto de información de disparidad que se genera en el "Caso 3" antes descrito. El ejemplo del contenido del conjunto de información de disparidad de la Figura 24 es similar al ejemplo del contenido del conjunto de información de disparidad de la Figura 22 descrito en lo anterior excepto que "Zone_idD" y " 2D_directioni_theta" se reemplazan por "Direction" . "Direction" es datos de 8 bits que representan la dirección del origen (0, 0) hasta la posición de píxel (x, y) ·
La Figura 25 ilustra un ejemplo del contenido de un conjunto de información de disparidad que se genera en el "Caso 4" antes descrito. El ejemplo del contenido del conjunto de información de disparidad de la Figura 25 es similar al ejemplo del contenido del conjunto de información de disparidad de la Figura 24 descrito en lo anterior excepto que "Disparity_gradient_phai " se reemplaza por "Disparity". "Disparity" es datos de 12 bits que representan el valor de la información de disparidad (vector de disparidad) para una posición de píxel (x, y) .
La Figura 27 ilustra un ejemplo del contenido de un conjunto de información de disparidad que se genera en el "Caso 5" antes descrito. El "TS (Segmento de tiempo) es datos de 8 bits que representan el número de partes igualmente divididas de un evento, un programa, una escena o similares. "TS = 1" representa que el período no se divide. "Subdivisión" es datos de 8 bits que representan el número de partes igualmente divididas de cada segmento de tiempo. "Subdivisión = 1" representa que el segmento de tiempo no se divide .
El "Número de Punto de Disparidad" representa el número total de conjuntos de información de disparidad. Por ejemplo, en un caso donde existen dos conjuntos de información de disparidad que incluyen la primera posición de píxel en la cual el valor de la información de disparidad es el máximo (Max) , y la posición de píxel (segunda posición de píxel) en la cual el valor de la información de disparidad es el mínimo (Min) , se supone que "Número de Punto de Disparidad = 1)". "relative_plain_mode" es datos de 1 bit que representan el tipo de un plano relativo. "relative_plain_mode = 1" representa un plano de coordenadas del Modo de Coordenadas 0 que tienen el centro de imagen 0 como su origen (0, 0) . "relative_plain_mode = 0" representa un plano de coordenadas del Modo de Coordenadas 1 que tiene el lado izquierdo superior (izquierdo superior) de la imagen como su origen (0, 0) .
"Relative_x" es datos de 11 bits que representan una distancia horizontal (Rxa) desde el origen (0, 0) hasta una posición de píxel (x, y) . Esta distancia horizontal (Rxa) se representa como una relación con respecto al tamaño de la imagen en la dirección horizontal. "Relative_y" es datos de 11 bits que representan una distancia vertical (Rya) desde el origen (0, 0) hasta una posición de píxel (x, y) . Esta distancia vertical (Rya) se representa como una relación con respecto al tamaño de la imagen en la dirección vertical . "Disparity" es datos de 12 bits que representan el valor de la información de disparidad (vector de disparidad) para la posición de píxel (x, y) .
La Figura 28 ilustra un ejemplo del contenido de un conjunto de información de disparidad que se genera en el "Caso 6" antes descrito. El ejemplo del contenido del conjunto de información de disparidad de la Figura 28 es similar al ejemplo del contenido del conjunto de información de disparidad de la Figura 27 descrito en lo anterior excepto que "Disparity" se reemplaza por "Relative_Disparityi_ratio" . La "Relative_Disparityi_ratio" es datos de 12 bits que representan la relación del valor de la información de disparidad (vector de disparidad) para una posición de pixel (x, y) con la resolución horizontal PH.
Las Figuras 30 a 35 ilustran ejemplos de descriptor (Descriptor z-OSD) que incluye un conjunto de información de disparidad que se genera por la unidad 122 de generación de conjunto de información de disparidad en el "Caso 1" al "Caso 6" descritos en lo anterior. La "descriptor_tag" son datos de 8 bits que representan el tipo de un descriptor. Aquí, el descriptor se representa como un descriptor (Descriptor z-OSD) que incluye un conjunto de información de disparidad. "descriptor_length" es datos de 8 bits que representan la longitud (tamaño) de la información. Como la información de este descriptor, el conjunto de información de disparidad antes descrito se inserta. Las Figuras 30 a 35 ilustran los descriptores (Descriptores z-OSD) que incluyen conjuntos de información de disparidad generados en "Caso 1" al "Caso 6" descritos en lo anterior.
En la unidad 110 de generación de datos de transmisión de la Figura 2, en los datos de corriente de bits BSD producidos desde el multiplexor 126, junto con los datos de imágenes estereoscópicas de un programa predeterminado que incluyen datos de imagen de ojo izquierdo y datos de imagen de ojo derecho, un conjunto de información de disparidad para una posición de píxel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado se incluyen. Por consiguiente, en el lado de recepción, al utilizar el conjunto de información de disparidad, la información solapada que solapa la imagen de ojo izquierdo y la imagen de ojo derecho, por ejemplo, información gráfica tal como OSD para la cual se ha realizado ajustes de disparidad de acuerdo con la perspectiva de cada objeto dentro de una imagen, puede utilizarse. Por lo tanto, al desplegar información gráfica tal como OSD, la consistencia en la perspectiva de cada objeto dentro de la imagen puede mantenerse.
Además, en la unidad 110 de generación de datos de transmisión de la Figura 2, el conjunto de información de disparidad se incluye en los datos de corriente de bits BSD que se producen desde el multiplexor 122 que se configura para incluir los datos de posición que representan una posición relativa de una posición de pixel predeterminada con respecto a toda la imagen y los datos de disparidad para la posición de pixel predeterminada. Por consiguiente, el conjunto de información de disparidad es independiente de la resolución de la imagen estereoscópica y también es independiente de la resolución de visualizacion del monitor y el tamaño del monitor. Por lo tanto, en el lado de recepción, el ajuste de disparidad puede realizarse fácilmente al utilizar el conjunto de información de disparidad sin importar la resolución de visualizacion del monitor o el tamaño de monitor.
[Descripción de la Caja de Convertidor-Descodificador ]
Con referencia nuevamente a la Figura 1, la caja
200 de convertidor-descodificador recibe datos de corriente de bit (corriente de transporte) BSD que se transmiten desde la estación 100 de difusión mientras se transportan en ondas de difusión. En los datos de corrientes de bits BSD, los datos de imágenes estereoscópicas que incluyen los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho, datos de audio, y un conjunto de información de disparidad se incluyen.
La caja 200 de convertidor-descodificador incluye una unidad 201 de procesamiento de corriente de bits. Esta unidad 201 de procesamiento de corriente de bits extrae los datos de imágenes estereoscópicas, los datos de audio, un conjunto de información de disparidad, y similares de los datos de corriente de bits. Esta unidad 201 de procesamiento de corriente de bits, adecuadamente, genera datos de imagen de ojo izquierdo y datos de imagen de ojo derecho que solapa la información gráfica tal como una OSD. En tal caso, existe disparidad entre la información gráfica de ojo izquierdo que solapa la imagen de ojo izquierdo y la información gráfica de ojo derecho que solapa la imagen de ojo derecho basándose en el conjunto de información de disparidad. Al proporcionar disparidad entre la información gráfica de ojo izquierdo y el subtítulo de ojo derecho de información gráfica de ojo derecho como en lo anterior, un usuario puede reconocer la información gráfica que solapa la imagen estereoscópica, por ejemplo, enfrente de la imagen.
[Ejemplo de Configuración de la Caja de Convertidor-Descodificador]
Un ejemplo de la configuración de la caja 200 de convertidor-descodificador se describirá. La Figura 36 ilustra un ejemplo de la configuración de la caja 200 de convertidor-descodificador . Esta caja 200 de convertidor-descodificador incluye una unidad 201 de procesamiento de corriente de bits, una terminal 202 de HDMI, una terminal 203 de antena, un sintonizador 204 digital, un circuito 205 de procesamiento de video, una unidad 206 de transmisión de HDMI, y un circuito 207 de procesamiento de audio. Además, la caja 200 de convertidor-descodificador incluye una CPU 211, una ROM flash 212, una DRAM 213, un bus 214 interno, una unidad 215 de recepción de control remoto, y un transmisor 216 de control remoto.
La terminal 203 de antena es una terminal a la cual una señal de difusión de televisión recibida por una antena de recepción (no ilustrada en la figura) se ingresa. El sintonizador 204 digital procesa una señal de difusión de televisión ingresada en la terminal 203 de antena y produce los datos de corriente de bits predeterminados (corriente de transporte) BSD que corresponden con un canal seleccionado por un usuario.
La unidad 201 de procesamiento de corriente de bits, como se describe en lo anterior, extrae los datos de imágenes estereoscópicas, los datos de audio y similares de los datos de corriente de bits BSD y produce los datos extraídos. Esta unidad 201 de procesamiento de corriente de bits compone de manera adecuada los datos de visualización de información gráfica tal como una OSD con los datos de imágenes estereoscópicas. En ese tiempo, la unidad 201 de procesamiento de corriente de bits proporciona disparidad entre la información gráfica de ojo izquierdo que solapa la imagen de ojo izquierdo y la información gráfica de ojo derecho que solapa la imagen de ojo derecho basándose en el conjunto de información de disparidad.
El circuito 205 de procesamiento de vídeo realiza un proceso de ajuste de calidad de imagen y similares para los datos de imágenes estereoscópicas que se producen desde la unidad 201 de procesamiento de corriente de bit si es necesario y suministra los datos de imágenes estereoscópicas después del procesamiento a la unidad 206 de transmisión de HDMI . El circuito 207 de procesamiento de audio realiza un proceso de ajuste de calidad de sonido y similar para los datos de audio que se producen desde la unidad 201 de procesamiento de corrientes de bits si es necesario y suministra los datos de audio después del proceso a la unidad 206 de transmisión de HDMI.
La unidad 206 de transmisión de HDMI transmite, por ejemplo, datos de imágenes y datos de audio que no se comprimen a partir de la terminal 202 de HDMI a través de la comunicación que se encuentra en cumplimiento con la HDMI . En este caso, puesto que los datos se transmiten a través de un canal de TMDS de la HDMI, los datos de imágenes y los datos de audio se empacan y se producen desde la unidad 206 de trasmisión de HDMI hasta la terminal 202 de HDMI.
La CPU 201 controla la operación de cada unidad de la caja 200 de convertidor-descodificador . La ROM 212 flash almacena software de control y datos; la DRAM 213 configura un área de trabajo y la CPU 211. La CPU 211 extiende el software y los datos leídos en la ROM 212 flash en la DRAM 213 y arranca el software, por lo que controla cada unidad de la caja 200 de convertidor-descodificador .
La unidad 215 de recepción de control remoto recibe una señal de control remoto (código de control remoto) que se transmite desde el transmisor 216 de control remoto y suministra la señal de control remoto recibida a la CPU 211. La CPU 211 controla cada unidad de la caja 200 de convertidor-descodificador basándose en el código de control remoto. La CPU 211, la ROM 212 flash, y la DRAM 213 se conectan al bus 214 interno.
La unidad 201 de procesamiento de corriente de bits se describirá. Esta unidad 201 de procesamiento de corriente de bits incluye un desmultiplexor 220, un descodificador 221 de vídeo, un descodificador 224 de audio, una unidad 216 de generación de datos de visualización de OSD, y una unidad 228 de solape de vídeo. El desmultiplexor 220 extrae los paquetes de un vídeo y un audio de los datos de corriente de bits BSD y transmiten los paquetes extraídos a cada descodificador . Además, el desmultiplexor 220 extrae un conjunto de información de disparidad de los datos de corriente de bits BSD y transmite el conjunto de información de disparidad extraído a la unidad 226 de generación de datos de visualización de OSD y la unidad 206 de transmisión de HDMI antes descrita.
El descodificador 221 de vídeo reconfigura una corriente elemental de vídeo basándose en el paquete de vídeo que se extrae desde el desmultiplexor 220 y realiza un proceso de descodificación, por el que adquiere datos de imágenes estereoscópicas que incluyen datos de imagen de ojo izquierdo y datos de imagen de ojo derecho. El descodificador 224 de audio reconfigura una corriente de metal de audio basándose en el paquete del audio que se extrae desde el multiplexor 220 y realiza un proceso de descodificación para adquirir datos de audio y produce los datos de audio adquiridos al exterior de la unidad 201 de procesamiento de corriente de bits.
La unidad 226 de generación de datos de visualización OSD genera datos de información gráfica de ojo izquierdo que corresponden con los datos de imagen de ojo izquierdo incluidos en los datos de imágenes estereoscópicas y los datos de la información gráfica de ojo derecho que corresponden con los datos de imagen de ojo derecho incluidos en los datos de imágenes estereoscópicas. En tal caso, la unidad 226 de generación de datos de visualización OSD hace que la disparidad se presente entre la información gráfica de ojo izquierdo y la información gráfica de ojo derecho basándose en el conjunto de información de disparidad que se extrae por el desmultiplexor 220.
Aquí, basándose en los datos de posición y los datos de disparidad incluidos en el conjunto de información de disparidad, la unidad 26 de generación de datos de visualización OSD adquiere una posición dentro de la región de imagen que corresponde con el conjunto de información de disparidad y produce un valor de información de disparidad para la posición a través de un proceso inverso del proceso realizado en el lado de transmisión.
La unidad 228 de solape de vídeo solapa los datos del ojo izquierdo y la información gráfica de ojo izquierdo que se genera por la unidad 226 de generación de datos de visualización OSD y los datos de imágenes estereoscópicas (los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho) adquiridos por el descodificador 221 de video entre sí, por lo que adquiere los datos de imágenes estereoscópicas para una visualización. Entonces, esta unidad 228 de solape de vídeo produce los datos de imágenes estereoscópicas para una visualización en el exterior de la unidad 201D de procesamiento de corriente de bits.
La operación de la caja 200 de convertidor/descodificador se describirá brevemente. Una señal de difusión de televisión ingresada en la terminal 203 de antena se suministra al sintonizador 204 digital. Este sintonizador 204 digital procesa la señal de difusión de televisión y produce datos de corriente de bits predeterminados (corriente de transporte) BSD que corresponde con un canal seleccionado por un usuario.
Los datos de corriente de bits BSD producidos del sintonizador 204 digital se suministran a la unidad 201 de procesamiento de corriente de bits. En esta unidad 201 de procesamiento de corriente de bits, los datos de imágenes estereoscópicas, los datos de audio, un conjunto de información de disparidad, y similares se extraen de los datos de corriente de bits BSD. En la unidad 201 de procesamiento de corriente de bits, cuando es adecuado, datos de visualización de información gráfica tales como una OSD se componen con los datos de imágenes estereoscópicas.
En este momento, en la unidad 201 de procesamiento de corriente de bits, la disparidad se hace presentar entre la información gráfica de ojo izquierdo que solapa la imagen de ojo izquierdo y la información gráfica de ojo derecho que solapa la imagen de ojo derecho basándose en el conjunto de información de disparidad. Por consiguiente, la consistencia en la perspectiva de la información gráfica que se despliega en una imagen estereoscópica en una forma solapada con la perspectiva de cada objeto dentro de la imagen puede mantenerse en un estado óptimo.
Los datos de imágenes estereoscópicas para una visualización, los cuales se adquieren por la unidad 201 de procesamiento de corriente de bits, se suministran al circuito 205 de procesamiento de vídeo. En ese circuito 205 de procesamiento de vídeo, un proceso de ajuste de calidad de imagen y similares se realizan para los datos de imágenes estereoscópicas para una visualización si es necesario. Los datos de imágenes estereoscópicas para una visualización después del proceso, que se producen desde el circuito 205 de procesamiento de vídeo, se suministran a la unidad 206 de transmisión de HDMI .
Además, los datos de audio adquiridos por la unidad 201 de procesamiento de corriente de bits se suministran al circuito 207 de procesamiento de audio. En este circuito 207 de procesamiento de audio, un proceso de ajuste de calidad y sonido y similares se realizan para los datos de audio si es necesario. Los datos de audio después del proceso, que se producen desde el circuito 207 de procesamiento de audio, se suministran a la unidad 206 de trasmisión de HDMI. Después, los datos de imágenes estereoscópicas y los datos de audio que se suministran a la unidad 206 de transmisión de HDMI se transmiten desde la terminal 202 de HDMI hasta el cable 400 de HDMI a través de un canal de TMDS del HDMI .
[Descripción del Receptor de Televisión]
Con referencia nuevamente a la Figura 1, el receptor 300 de televisión recibe datos de imágenes estereoscópicas transmitidos desde la caja 200 de convertidor-descodificador a través del cable 400 de HDMI. Este receptor 300 de televisión incluye una unidad 301 de procesamiento de señales 3D. Esta unidad 301 de procesamiento de señales 3D realiza un proceso (proceso de descodificación) que corresponde con el tipo de transmisión de los datos de imágenes estereoscópicas, por lo que genera datos de imagen de ojo izquierdo y datos de imagen de ojo derecho. La unidad 301 de procesamiento de señales 3D adquiere los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho que configuran los datos de imágenes estereoscópicas.
[Ejemplo de Configuración de Receptor de Televisión]
Un ejemplo de la configuración del receptor 300 de televisión se describirá. La Figura 37 ilustra un ejemplo de la configuración del receptor 300 de televisión. Este receptor 300 de televisión incluye: una unidad 301 de procesamiento de señales 3D; una terminal 302 de HDMI ; una unidad 303 de recepción de HDMI; una terminal 304 de antena; un sintonizador 305 digital; y una unidad 306 de procesamiento de corriente de bits.
Además, este receptor 300 de televisión incluye: una unidad 313 de generación de datos de visualización OSD; una unidad 314 de solape de v deo; un circuito 307 de procesamiento de vídeo; un circuito 308 de excitación de panel; un panel 309 de visualización; un circuito 310 de procesamiento de audio; un circuito 311 de amplificación de audio; y un altavoz 312. Además, el receptor 300 de televisión incluye: una CPU 321, una ROM 322 flash, una DRAM 323; un bus 324 interno; una unidad 325 de recepción de control remoto; y un transmisor 326 de control remoto.
La terminal 304 de antena es una terminal a la cual una señal de disposición de televisión recibida por una antena de recepción (no ilustrada en la figura) se ingresa.
El sintonizador 305 digital procesa una señal de difusión de televisión ingresada en la terminal 304 de antena y produce los datos de corriente de bits predeterminados (corriente de transporte) que corresponden con un canal seleccionado por un usuario.
La unidad 306 de procesamiento de corriente de bits tiene una configuración que es similar a aquella de la unidad 201 de procesamiento de corriente de bits de la caja 200 de convertidor-descodificador de la Figura 36 . Esta unidad 306 de procesamiento de corriente de bits extrae los datos de imágenes estereoscópicas (los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho) , datos de audio, un conjunto de información de disparidad, y similares de los datos de corriente de bits .
La unidad 303 de recepción de HDMI recibe datos de imagen y datos de audio, que no se comprimen, suministrados a la terminal 302 de HDMI a través del cable 400 de HDMI a través de la comunicación que se encuentra en cumplimiento con la HDMI. Por ejemplo, la versión de la unidad 303 de recepción de HDMI es HDMI 1 . 4 y se encuentra en el estado en el cual pueden manejarse los datos de imágenes estereoscópicas. La unidad 303 de recepción de HDMI se describirá posteriormente en detalle.
La unidad 301 de procesamiento de señales 3D realiza un proceso de descodificación para los datos de imágenes estereoscópicas que se reciben por la unidad 303 de recepción de HDMI o se adquieren por la unidad 306 de procesamiento de corriente de bits, por lo que generan datos de imagen de ojo izquierdo y datos de imagen de ojo derecho. En este caso, la unidad 301 de procesamiento de señales 3D realiza un proceso de descodificación que corresponde con un formato del sistema de transmisión para los datos de imágenes estereoscópicas adquiridos por la unidad 306 de procesamiento de corriente de bits. Además, la unidad 301 de procesamiento de señales 3D realiza un proceso de descodificación que corresponde con una estructura de datos de transmisión de TMDS que se describirá posteriormente para los datos de imágenes estereoscópicas recibidos por la unidad 303 de recepción de HDMI .
La unidad 313 de generación de datos de visualización OSD genera datos de información gráfica de ojo izquierdo que corresponden con datos de imagen de ojo izquierdo incluidos en los datos de imágenes estereoscópicas y datos de información gráfica de ojo derecho que corresponden con datos de imagen de ojo derecho incluidos en los datos de imágenes estereoscópicas . La información gráfica es información solapada utilizada para una visualización OSD de un menú, una tabla de programación, o similares. En tal caso, la unidad 313 de generación de datos de visualización OSD hace que se presente disparidad entre la información gráfica de ojo izquierdo y la información gráfica de ojo derecho basándose en el conjunto de información de disparidad que se adquiere por la unidad 306 de procesamiento de corriente de bits o se recibe por la unidad 303 de recepción de HDMI.
Aquí, basándose en los datos de posición y los datos de disparidad incluidos en el conjunto de información de disparidad, la unidad 313 de generación de datos de visualizacion OSD adquiere una posición dentro de la región de imagen que corresponde con el conjunto de información de disparidad y adquiere un valor de la información de disparidad para la posición a través de un proceso inverso del proceso realizado en el lado de transmisión.
La unidad 314 de solape de vídeo solapa los datos del ojo izquierdo y la información gráfica de ojo izquierdo que se generan por la unidad 313 de generación de datos de visualizacion OSD y los datos de imágenes estereoscópicas (los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho) . adquiridos por la unidad 301 de procesamiento de señales 3D, entre sí, por lo que adquieren datos de imágenes estereoscópicas para una visualizacion.
El circuito 307 de procesamiento de vídeo genera datos de imágenes utilizados para desplegar una imagen estereoscópica basándose en los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho que se generan por la unidad 301 de procesamiento de señales 3D. Además, el circuito 307 de procesamiento de vídeo realiza un proceso de ajuste de calidad de imagen y similares para datos de imagen si es necesario. El circuito 308 de excitación de panel excita el panel 309 de visualización basándose en los datos de imagen que se producen desde el circuito 307 de procesamiento de vídeo. El panel 309 de visualización, por ejemplo, se configura por una pantalla de cristal líquido (LCD) , un panel de visualización de plasma (PDP) , o similares.
El circuito 310 de procesamiento de audio realiza un proceso necesario tal como conversión D/E para los datos de audio que se reciben por la unidad 303 de recepción de HDMI o se adquieren por la unidad 306 de procesamiento de corriente de bits. El circuito 311 de amplificación de audio amplifica una señal de audio que se produce desde el circuito 310 de procesamiento de audio y suministra la señal de audio amplificada al altavoz 312.
La CPU 321 controla la operación de cada unidad del receptor 300 de televisión. La ROM 322 flash almacena el software de control y datos. La DRAM 323 configura un área de trabajo de la CPU 321. La CPU 321 expande el software o la lectura de datos fuera de la ROM 322 flash en la DRAM 323 y arranca el software, por lo que controla cada unidad del receptor 300 de televisión.
La unidad 325 de recepción de control remoto recibe una señal de control remoto (código de control remoto) que se transmite desde el transmisor 326 de control remoto y suministra la señal de control remoto recibida a la CPU 321. La CPU 321 controla cada unidad del receptor 300 de televisión basándose en el código de control remoto. La CPU 321, la ROM 322 flash y la DRAM 323 se conectan al bus 324 interno .
La operación del receptor 300 de televisión ilustrado en la Figura 37 se describirá brevemente. La unidad 303 de recepción de HDMI recibe datos de imágenes estereoscópicas y datos de audio que se transmiten desde la caja 200 de convertidor-descodificador conectada a la terminal 302 de HDMI a través del cable 400 de HDMI. Los datos de imágenes estereoscópicas recibidos por la unidad 303 de recepción de HDMI se suministran a la unidad 301 de procesamiento de señales 3D. Además, los datos de audio recibidos por la unidad 303 de recepción de HDMI se suministran al circuito 310 de procesamiento de audio.
Una señal de difusión de televisión que se ingresa en la terminal 304 de antena se suministra al sintonizador 305 digital. En este sintonizador 305 digital, una señal de difusión de televisión se procesa, y los datos de corriente de bits predeterminados (corriente de transporte) que corresponden con un canal seleccionado por un usuario se producen .
Los datos de corriente de bits producidos desde el sintonizador 305 digital se suministran a la unidad 306 de procesamiento de corriente de bits. En esta unidad 306 de procesamiento de corriente de bits, los datos de imágenes estereoscópicas (datos de imagen de ojo izquierdo y datos de imagen de ojo derecho) , datos de audio, y un conjunto de información de disparidad, y similares se extraen de los datos de corriente de bits. Los datos de imágenes estereoscópicas adquiridos por la unidad 306 de procesamiento de corriente de bits se suministran a la unidad 301 de procesamiento de señales 3D. Además, los datos de audio adquiridos por la unidad 306 de procesamiento de corriente de bits se suministran al circuito 310 de procesamiento de audio.
La unidad 301 de procesamiento de señales 3D realiza un proceso de descodificación para los datos de imágenes estereoscópicas que se reciben por la unidad 303 de recepción de HDMI o se adquieren por la unidad 306 de procesamiento de corriente de bits, por lo que genera datos de imagen de ojo izquierdo y datos de imagen de ojo derecho. Los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho se suministran a la unidad 314 de solapamiento de video .
La unidad 313 de generación de datos de visualización OSD genera datos de información gráfica de ojo izquierdo que corresponden con los datos de imagen de ojo izquierdo incluidos en los datos de imágenes estereoscópicas y datos de información gráfica de ojo derecho que corresponden con los datos de imagen de ojo derecho incluidos en los datos de imágenes estereoscópicas. En este caso, la unidad 313 de generación de datos de visualización OSD hace que se presente disparidad entre la información gráfica de ojo izquierdo y la información gráfica de ojo derecho basándose en el conjunto de información de disparidad que se adquiere por la unidad 306 de procesamiento de corriente de bits o se recibe por la unidad 303 de recepción de HDMI .
La unidad 314 de solape de video solapa datos del ojo izquierdo y la información gráfica de ojo izquierdo que se genera por la unidad 313 de generación de datos de visualización OSD y los datos de imágenes estereoscópicas (los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho) adquiridos por la unidad 301 de procesamiento de señales 3D entre sí, por lo que adquiere datos de imágenes estereoscópicas para una visualización. Los datos de imágenes estereoscópicas para una visualización se suministran al circuito 307 de procesamiento de vídeo. En el circuito 307 de procesamiento de vídeo, los datos de imagen utilizados para visualizar una imagen estereoscópica se generan basándose en los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho, y un proceso de ajuste de calidad de imagen se realiza cuando es necesario.
Los datos de imágenes adquiridos por el circuito 307 de procesamiento de vídeo se suministran al circuito 308 de excitación de panel. Por consiguiente, se describe una imagen estereoscópica por el panel 309 de visualización. Por ejemplo, en el panel 309 de visualización, la imagen de ojo izquierdo de acuerdo con los datos de imagen de ojo izquierdo y una imagen de ojo derecho de acuerdo con los datos de imagen de ojo derecho se despliegan alternativamente en una forma de división de tiempo. Cuando el usuario utiliza gafas obturadoras de las cuales se abren alternativamente un obturador de ojo izquierdo y un obturador de ojo derecho en sincronización con la visualización de panel 309 de visualización, solamente la imagen de ojo izquierdo puede verse en el ojo izquierdo, y solamente la imagen de ojo derecho puede verse en el ojo derecho, por lo que puede reconocerse una imagen estereoscópica.
Además, en el circuito 310 de procesamiento de audio, un proceso necesario tal como conversión D/A se realiza para los datos de audio que se recibe por la unidad 303 de recepción de HDMI o se adquieren por la unidad 306 de procesamiento de corriente de bits. Después de que se amplifican estos datos de audio por el circuito 311 de amplificación de audio, los datos de audio amplificados se suministran al altavoz 312. Por consiguiente, el audio que corresponde con la imagen de visualizacion desplegada en el panel 309 de visualizacion se produce del altavoz 312.
Aquí, el procesamiento de un conjunto de información de disparidad, el cual se realiza por la unidad 313 de generación de datos de visualizacion OSD (incluyendo la unidad 226 de generación de datos de visualizacion OSD de la caja 200 de convertidor-descodificador) , se describirá. Por ejemplo, se describirá un caso en el cual se genera un conjunto de información de disparidad en "Caso 1" descrito en lo anterior. En tal caso, como se ilustra en la Figura 38, en el conjunto de información de disparidad, los datos de tangente (tanG) que configuran los datos de dirección y un identificador de zona (Zone_id) se incluyen. Además, en el conjunto de información de disparidad, los datos de distancia (Line Scale) y los datos de disparidad (Disparity Gradient: tan<j>) se incluyen.
La unidad 313 de generación de datos de visualizacion OSD, en la Etapa ST41, determinan la configuración (la resolución vertical y horizontal y una distancia entre píxeles) de una imagen de visualizacion y comprueba un centro de imagen 0 y calcula una distancia desde el centro de imagen 0 hasta el final a través de la conversión en el número de píxeles .
Después, la unidad 313 de generación de datos de visualizacion OSD, en la Etapa ST42, comprueba un cuadrante en el cual la posición se ubica basándose en el identificador de zona (Zone-id) y, como se ilustra en la Figura 39, adquiere la inclinación de una línea recta "línea de dirección" que se extiende desde el centro de imagen 0 basándose en los datos de tangente (tanG) . Además, la unidad 313 de generación de datos de visualizacion OSD adquiere distancias La (OA) y ?,ß (OB) como se ilustra en la Figura 39 basándose en los datos de distancia (Line Scale) y la longitud de la línea recta "línea de dirección" hasta el punto final de la visualizacion. Por consiguiente, la unidad 313 de generación de datos de visualizacion OSD reconoce una posición (?ß, y ) en la cual el valor de información de disparidad es el máximo y una posición (xa, ya) en la cual el valor de información de disparidad es el mínimo.
Después, la unidad 313 de generación de datos de visualizacion OSD, en la Etapa ST43 , como se ilustra en la Figura 40, reproduce valores de información de disparidad Da y ?ß al utilizar los datos de disparidad (tan<j>a, tan<|>p) y las distancias La (OA) y Lp (OB) .
Además, por ejemplo, se describirá un caso en el cual se genera un conjunto de información de disparidad en el "Caso 6" descrito en lo anterior. En tal caso, como se ilustra en la Figura 41, el conjunto de información de disparidad, los datos de modo de coordenadas, los datos de distancia horizontal Rxa, los datos de distancia vertical Rya, y los datos de disparidad (Relative_Disparity_ratio) se incluyen .
La unidad 313 de generación de datos de visualización OSD en la Etapa ST51, determinan la configuración (resolución vertical y horizontal y una distancia entre p xeles) de una imagen de visualización. Entonces , en un caso donde el modo de coordenadas es el Modo de Coordenadas 1, la unidad 313 de generación de datos de visualización OSD calcula una posición relativa desde el extremo izquierdo superior en un plano bidimensional (véase Figura 19). Por otro lado, en un caso donde el modo de coordenadas es Modo de Coordenadas 0, la unidad 313 de generación de datos de visualización OSD calcula una distancia desde el centro de imagen O hasta el final a través de la conversión en el número de píxeles para especificar la posición del dispositivo (véase Figura 18) .
Después, la unidad 313 de generación de datos de visualización OSD, en la Etapa ST52, adquiere una posición de desplazamiento de disparidad y reproduce la cantidad de disparidad para asignarse a un plano de visualización, basándose en los datos de distancia Rxa y Rya y los datos de disparidad (Relative_Disparity_ratio) .
Aquí, la relación entre la información de disparidad y la posición basadas en una diferencia en el tamaño del monitor se describirán. Por ejemplo, como se ilustra en la Figura 42, un monitor de tamaño pequeño y un monitor de tamaño grande se considerarán. En un caso donde las resoluciones de los monitores son las mismas, el intervalo de p xel del monitor de tamaño pequeño es pequeño, y el intervalo de píxel del monitor de tamaño grande es grande. La posición de información de disparidad se adquiere de manera adecuada en el monitor de visualización. Entonces el valor de información de disparidad de recibido se convierte en un valor de información de disparidad adecuado que coincide con la profundidad de una imagen estereoscópica en el monitor de visualización.
Además, la relación entre la información de disparidad y la posición basadas en una diferencia en la resolución se describirán. Por ejemplo, como se ilustra en la Figura 43, un monitor de alta resolución y un monitor de baja resolución se considerarán. En un caso donde los tamaños de los monitores son los mismos, el intervalo de píxel o el monitor de alta resolución es pequeño, y el intervalo de píxel del monitor de baja resolución es grande. La posición de información de disparidad se adquiere de manera adecuada en el monitor de visualización. Después, el valor de información de disparidad recibido se convierte en un valor de información de disparidad adecuado que coincide con la profundidad de una imagen estereoscópica en el monitor de visualización .
Existe un caso donde la posición de información de disparidad calculada o el valor de información de disparidad es una décima. En tal caso, la unidad 226 de generación de datos de visualización OSD utiliza un proceso de interpolación para el ajuste por desplazamiento que se realiza para hacer que se presente disparidad entre la información gráfica de ojo izquierdo que solapa la imagen de ojo izquierdo y la información gráfica de ojo derecho que solapa la imagen de ojo derecho basándose en la información de disparidad. Por consiguiente, el ajuste por desplazamiento con la precisión de un subpíxel puede realizarse. La Figura 44 ilustra de manera esquemática un ejemplo de un proceso de interpolación en un caso donde los datos de píxel se desplazan por un píxel 1/2 en la dirección horizontal. En la Figura 44(a), círculos negros denotan datos recibidos. En la Figura 44(b), círculos blancos ilustran un estado en el cual los datos recibidos se desplazan simplemente por un píxel 1/2 en la dirección horizontal. Sin embargo, no existen datos denotados por el círculo blanco que se ubican en una posición de píxel. De este modo la unidad 225 de ajuste por desplazamiento realiza un proceso de interpolación para los datos denotados por los círculos blancos y genera datos ubicados en posiciones de píxeles denotadas por círculos con rayas en la Figura 44(b) para ser datos después del ajuste por desplazamiento.
[Ejemplo de Configuración de Unidad de Transmisión de HDMI y la unidad de Recepción de HDMI]
La Figura 45 ilustra un ejemplo de la configuración de la unidad 206 de transmisión de HDMI (fuente de HDMI) de la caja 200 convertidor-descodificador y la unidad 303 de recepción de HDMI (colector de HDMI) del receptor 300 de televisión en el sistema 10 de visualización de imagen estereoscópica ilustrado en la Figura 1.
La unidad 206 de transmisión de HDMI transmite de manera unidireccional señales diferenciales correspondientes a los datos de pixeles de una imagen que corresponde con una pantalla descomprimida en la unidad 303 de recepción de HDMI a través de la pluralidad de canales en el intervalo de imagen efectivo (después de esto, apropiadamente, también denominado como intervalo de video activo). Aquí, el intervalo de imagen efectivo es un intervalo adquirido al excluir un intervalo de supresión horizontal y un intervalo de supresión vertical del intervalo de una señal de sincronización vertical hasta la señal de sincronización vertical siguiente: Además, la unidad 206 de transmisión de HDMI transmite de manera unidireccional señales diferenciales que corresponden con por lo menos datos de audio y datos de control que se acompañan con una imagen, otros datos auxiliares, y similares en la unidad 303 de recepción de HDMI a través de una pluralidad de canales en el intervalo de supresión horizontal o el intervalo de supresión vertical .
Como canales de transmisión del sistema HDMI que se forma por la unidad 206 de transmisión de HDMI y la unidad 303 de recepción de HDMI , existen los siguientes canales de transmisión. En otras palabras, existen tres canales de TMDS #0 a #2 como canales de transmisión para transmitir de manera unidireccional datos de pixeles y datos de audio en una forma serial en sincronización con un reloj de pixel desde la unidad 206 de transmisión de HDMI hasta la unidad 303 de recepción de HDMI. Además, como canal de transmisión utilizado para transmitir un reloj de pixel existe un canal de reloj de TMDS.
La unidad 206 de transmisión de HDMI incluye un transmisor 81 de HDMI. El transmisor 81 , por ejemplo, convierte datos de pixeles de una imagen descomprimida en señales diferenciales correspondientes y transmite de manera unidireccional las señales diferenciales en una forma serial a la unidad 303 de recepción de HDMI que se conecta a través del cable 400 de HDMI a través de tres canales de TMDS #0 , #1 y #2 con una pluralidad de canales .
Además, el transmisor 81 convierte datos de audio acompañados con una imagen descomprimida, datos de control necesarios, otros datos auxiliares, y similares en señales diferenciales correspondientes y transmite de manera unidireccional las señales diferenciales a la unidad 303 de recepción de HDMI en una forma serial a través de tres canales de TDMS #0 , #1 y #2 .
Además, el transmisor 81 transmite un reloj de pixel, el cual se sincroniza con los datos de pixeles transmitidos a través de tres canales de TMDS #0 , #1 y #2 , hasta la unidad 303 de recepción de HDMI que se conecta a través del cable 400 de HDMI a través del canal de reloj de TMDS. Aquí, en un canal de reloj de TMDS #i (i = 0 , 1 ó 2 ) , los datos de pixeles de 10 bits se transmiten durante un reloj del reloj de pixel.
La unidad 303 de recepción de HDMI, en el intervalo de video activo, recibe las señales diferenciales que corresponden con los datos de pixeles, que se transmiten de manera unidireccional a los de la unidad 206 de transmisión de HDMI a través de una pluralidad de canales. Además, esta unidad 303 de recepción de HDMI, en intervalo de supresión horizontal o intervalo de supresión vertical, recibe señales diferenciales que corresponden con los datos de audio o datos de control, que se transmiten de manera unidireccional desde la unidad 206 de transmisión de HDMI a través de una pluralidad de canales.
En otras palabras, la unidad 303 de recepción de HDMI incluye el receptor 82 de HDMI. Este receptor 82 de HDMI recibe señales diferenciales que corresponden con datos de pixeles y señales diferenciales que corresponden con datos de audio y datos de control que se transmiten de manera unidireccional desde la unidad 206 de transmisión de HDMI a través de canales de TMDS #0 , #1 Y #2 . En este caso, el receptor 82 de HDMI recibe señales diferenciales en sincronización con el reloj de pixel que transmiten desde la unidad 206 de transmisión de HDMI a través del canal de reloj de TMDS.
Como canal de transmisión del sistema HDMI, diferente a los canales de TMDS antes descritos #0 a #2 en el canal de reloj de TMDS, existe un canal de transmisión denominado canal 83 de datos de visualización (DDC) o una línea 84 de CEC . El DDC 83 se forma por dos líneas de señales, que se incluyen en el cable 400 de HDMI y no se ilustran en la figura. El DDC 83 se utiliza por la unidad 206 de transmisión de HDMI para leer datos de identificación de visualización extendidos y mejorados (E-EDID) desde la unidad 303 de recepción de HDMI.
En otras palabras, la unidad 303 de recepción de
HDMI incluye una memoria 85 de solo lectura (ROM) de EDID que almacena E-EDID que es información de rendimiento que se relaciona con el rendimiento (Configuración/capacidad) de la misma, diferente al receptor 81 de HDMI. La unidad 206 de transmisión de HDMI, por ejemplo, en respuesta a una solicitud de la CPU 211 (véase Figura 36), leen el E-EDID de la unidad 303 de recepción de HDMI que se conecta a través del cable 400 de HDMI a través del DDC 83.
La unidad 206 de transmisión de HDMI transmite E-EDID leído a la CPU 211. La CPU 211 almacena el E-EDID en la ROM 212 flash o la DRAM 213. El CPU 211 puede reconocer el ajuste del rendimiento de la unidad 303 de recepción de HDMI basándose en el E-EDID. Por ejemplo, la CPU 211 reconoce si el receptor 300 de televisión que incluye la unidad 303 de recepción de HDMI puede o no manejar los datos de imágenes estereoscópicas y, en un caso donde los datos de imágenes estereoscópicas pueden manejarse, una estructura de datos de transmisión de TMDS a la cual puede responder el receptor de televisión y similares.
La línea 84 de CEC se forma a partir de una línea de señal, la cual no se ilustra en la figura y se incluye en el cable 400 de HDMI, y se utiliza para comunicación bidireccional de datos de control entre la unidad 206 de transmisión de HDMI y la unidad 303 de recepción de HDMI. Esta línea 84 de CEC configura una línea de datos de control.
Además, el cable 400 de HDMI, una línea 86 (línea de HPD) que se conecta a un detector de conexión activo denominado patita (HPD) se incluye. Un dispositivo de fuente puede detectar una conexión de un dispositivo colector al utilizar la línea 86. Además, esta línea 86 de HPD también se utiliza como una linea de HEAC que configura una línea de comunicación bidireccional . Además, el cable 400 de HDMI, una línea 87 (línea de potencia) que se utiliza para suministrar potencia desde el dispositivo de fuente hasta el dispositivo colector se incluye. Además, en el cable 400 de HDMI línea 88 de utilidad se incluye. Esta línea 88 de utilidad también se utiliza como una línea de HEAC+ que configura una línea de comunicación bidireccional .
La Figura 46 ilustra un ejemplo de la estructura de los datos de transmisión de TMDS . La Figura 46 ilustra varios intervalos de datos de transmisión en un caso donde los datos de imagen de líneas de 1920 pixeles horizontales x 1080 verticales se transmiten a través de los canales de TMDS #0, #1 y #2.
En un campo de video al cual se transmiten los datos de transmisión a través de tres canales de TMDS #0, #1 y #2 de la HDMI, existen períodos de tres tipos de acuerdo con los tipos de datos de transmisión. Estos períodos de tres tipos son un período de datos de video, un período de islas de datos y un período de control.
Aquí , el período de campo de video es un intervalo de un borde de elevación (borde activo) de una señal de sincronización vertical hasta un borde de elevación de la siguiente señal de sincronización vertical. Este periodo de campo de video se divide en un período de supresión horizontal un período de supresión vertical, y un período de video activo. Este período de video activo es un intervalo que se adquiere al excluir el período de supresión horizontal y el período de supresión vertical del período de campo de video .
El período de datos de video se asigna al intervalo de video activo. En este período de datos de video, los datos de pixeles efectivos (pixel Activo) que corresponden con 1920 pixeles x 1080 que configuran datos de imagen que corresponden con una pantalla descomprimida se transmiten.
El período de isla de datos y el período de control se asignan a un intervalo de supresión horizontal y el intervalo de supresión vertical. En el período de isla de datos y el período de control, se transmiten datos auxiliares. En otras palabras, el período de isla de datos se asigna a una parte del intervalo de supresión horizontal y el intervalo de supresión vertical. En este período de isla de datos, los datos que no se relaciona con control de datos auxiliares, como por ejemplo, un paquete de datos de audio y similares se transmiten.
La Figura 47 ilustra la disposición de patitas de una terminal de HDMI. La disposición de patitas ilustrada en la Figura 47 se denomina como tipo A. Data#i+ de TMDS y Data#i- de TMDS que son señales diferenciales del canal #i de TMDS se transmiten a través de dos líneas como líneas diferenciales. Estas dos líneas se conectan a una patita (una patita que tiene un número de patita de 1, 4, o 7) a la cual se asigna Data#i+ de TMDS y una patita (una patita que tiene un número de patitas de 3, 6 ó 9) a la cual se asignan Data#i- de TMDS.
Además, la línea 84 de CEC a través de la cual se transmite una señal de CEC como datos de control se conecta a una patita que tiene un número de patita de 13. Además, una línea a través de la cual se transmite una señal de Datos Seriales (SDA) tales como E-EDID se conecta a una patita que tiene un número de patita de 16. Una línea a través de la cual una señal de Reloj Serial (SCL) como señal de reloj utilizada para la sincronización en tiempo de transmisión y recepción de la señal de SDA se conecta a una patita que tiene un número de patita de 15. DDC83 descrito en lo anterior se configura por la línea a través de la cual se transmite la señal de SDA y la línea a través de la cual se transmite la señal de SCL.
Además, como se describe en lo anterior, la línea 86 de HPD (línea de HEAC) utilizada por el dispositivo de fuente para detectar una conexión de un dispositivo colector se conecta a una patita que tiene un número de patita de 19. Además, la línea 88 de utilidad (línea de HEAC+) conecta a una patita que tiene un número de patita de 14. Además, la línea 87 utilizada para suministrar energía como se describe en lo anterior se conecta a una patita que tiene un número de patita de 18 .
[Estructura de E-EDID]
Como se describe en lo anterior, la unidad 206 de transmisión de HDMI por ejemplo, de acuerdo con una solicitud de la CPU 211 (véase Figura 36 ) , lee el E-EDID de la unidad 303 de recepción de HDMI, la cual se conecta a través del cable 400 de HDMI, a través del DDC 83 . Entonces, la CPU 211 basándose en el E-EDID, reconoce el ajuste del rendimiento de la unidad 303 de recepción de HDMI, por ejemplo, si puede manejarse o no datos de imágenes estereoscópicas.
La Figura 48 ilustra un ejemplo de la estructura de datos del E-EDID. Este E-EDID se forma con un bloque básico y un bloque expandido. En el bloque básico, los datos definidos por la especificación de E-EDID 1 . 3 representada por "Estructura Básica de E_EDID 1 . 3 " se dispone en la posición principal. En el bloque básico, de manera subsiguiente, la información de tiempo utilizada para mantener la compatibilidad con el EDID convencional que se representa por "Tiempo preferido" se dispone. Además, en el bloque básico, de manera secuencial, la información de tiempo diferente a "Tiempo preferido" utilizado para mantener la compatibilidad con el EDID convencional representado por el " 2° tiempo" se dispone.
En el bloque básico, después del "2o tiempo", la información que representa el nombre de un dispositivo de visualización que se representa por el "NOMBRE de Monitor" se dispone. En el bloque básico, de manera subsiguiente, la información que representa el número de pixeles utilizados para una visualización en un caso donde la relación de aspecto es 4 : 3 ó 16 : 9, la cual se denota por el "Límite de Margen de Monitor", se dispone.
La posición principal del bloque expandido, "Descriptor de Video Corto" se dispone. Esta es información que representa un tamaño de imagen (resolución) que puede desplegarse, una taza de tramas y un modo entrelazado/modo progresivo. De manera subsiguiente, "Descriptor de Audio Corto" se dispone. Esta es información tal como un tipo de códec de audio reproducible, una frecuencia de muestreo, una banda de corte, número de bits de códec, y similares. De manera subsiguiente, la información con respecto al altavoz izquierdo y derecho, el cual se denota por "Asignación de Altavoz", se dispone.
Además, en el bloque expandido, después de
"Asignación de Altavoz", los datos que se definen únicamente por cada fabricante, el cual se denota por "Vendedor Específico", se dispone. En el bloque expandido, de manera secuencial, la información de tiempo utilizada para mantener la compatibilidad con el EDID convencional representado por el "3er tiempo", se dispone. Además, en el bloque expandido, de manera subsecuente, la información de tiempo utilizada para mantener la compatibilidad con EDID convencional representado por "4o tiempo", se dispone.
La Figura 49 ilustra un ejemplo de la estructura de datos de la región de vendedor específico (Bloque de Datos de Vendedor Específico de HD I) . En esta región de vendedor específico, los bloques 0 a N que son bloques de un byte se disponen.
En el bloque 0, un encabezado que representa una región de datos de "Vendedor Específico", los cuales se denotan por "código de etiqueta de Vendedor Específico (= 3)", se dispone. Además, en el bloque 0, la información que representa la longitud de los datos de "Vendedor Específico", que se denota por "Longitud (= N)", se dispone. Además, en los bloques 1 a 3, la información que representa un número de registro de "OxOOOC03" para HDMI (R) , la cual se denota por "Identificador de Registro de IEEE de 24 bits (0x000C03) primer LSB" , se dispone. Además, en los bloques 4 y 5, la información que representa las direcciones físicas de 24 bit de los dispositivos colectores, los cuales se denotan por "A", "B", "C" y "D", se dispone.
En el bloque 6, un indicador que representa la función en la cual corresponde el dispositivo colector, el cual se denota por "Soporta AI", se dispone. Además, en el bloque 6, la información que designa números de bits por un pixel que se denota por "bit DC-48", "bit DC-36" y "bit DC-30" se dispone. Además, en este bloque 6, un indicador que representa si un dispositivo colector se encuentra en correspondencia o no con la transmisión de una imagen de YCbCr4:4:4, el cual se denota por "DC-Y444", se dispone. Además, en este bloque 6, un indicador que representa si un dispositivo colector se encuentra en correspondencia o no con una interfaz visual digital doble (DVI) , la cual se denota por "DVI doble", se dispone.
Además, en el bloque 7, la información que representa la frecuencia más alta del reloj de pixel del TMDS, el cual se denota por "Max-TMDS-Reloj " , se dispone. Además, en el sexto bit y en séptimo bit en el bloque 8, un indicador que representa si existe un retardo de un video y un audio, el cual se denota por "Latencia", se dispone. Además, en el quinto bit en el bloque 8, un indicador que representa si un formato de video de HDMI adicional puede manejarse o no (3D, 4k x 2k) , el cual se denota por "HDMI_Video_present" , se dispone.
Además, en el bloque 9, los datos de tiempo de retardo de un video progresivo, el cual se denota por "Latencia de Video", se dispone y en el bloque 10, los datos de tiempo de retardo de audio que se acompañan por un video progresivo, el cual se denota por "Latencia de Audio", se dispone. Además, en el bloque 11, los datos de tiempo de retardo de un video entrelazado, el cual se denota por "Latencia de Video Entrelazada", se dispone. Además, en el bloque 12 , los datos de tiempo de retardo de audio que se acompañan por un video entrelazado, el cual se denota por "Latencia de Audio Entrelazado", se dispone.
Además, el 7o bit en el bloque 13, un indicador que representa si los datos de imagen en 3D pueden manejarse o no, los cuales se denotan por "3D_present" , se dispone. Además, en el 7° bit al 5o bit en el bloque 14, la información de tamaño de un bloque, el cual no se ilustra en la figura y se dispone en el bloque 15 y los bloques subsiguientes de los mismos, representan una estructura de datos diferente a la estructura de datos 3D obligatoria que puede manejarse, el cual se denota por "HDMI_VIC_LEN" , se dispone. Además, el 4o bit en el 0o bit en el bloque 14, la información de tamaño de un bloque, la cual no se ilustra en la figura y se dispone en el bloque 15 y los bloques subsiguientes, que representan un formato de video de 4k x 2k que puede manejarse, el cual se denota por "HD I_3D_LEN" , se dispone.
[Estructura de Datos de Transmisión TMDS de los Datos de Imágenes Estereoscópicas]
La Figura 50 ilustra un formato de video 3D de un tipo de paquete de tramas como una de la estructura de datos de transmisión de TMDS de los datos de imágenes estereoscópicas. Este formato de video 3D es un formato que se utiliza para transmitir datos de imagen del ojo izquierdo (L) y el ojo derecho (R) del tipo progresivo como datos de imágenes estereoscópicas .
En este formato de video 3D, como datos de imágenes del ojo izquierdo (L) y el ojo derecho (R) , los datos de imágenes que tienen un formato de pixel de 1920 x 1080 p y 1080 x 720 p se transmite. Además, en la Figura 50, se ilustra un ejemplo en el cual cada uno de los datos de imagen de ojo izquierdo (L) y los datos de imagen de ojo derecho (R) es de 1920 líneas x 1080 pixeles.
De acuerdo con este formato de video 3D, los datos de transmisión en unidades de intervalos de campo de video cada uno incluye un intervalo de supresión horizontal (Hblank) , un intervalo de supresión vertical (Vblank) , y un intervalo de video activo (Hactive x Vactive) que se descomponen por una señal de sincronización vertical, se genera. En este formato de video de 3D, el intervalo de video activo incluye dos regiones de video activo (Video activo) y una región de espacio activo (Espacio activo) interpuesta entre los mismos. Los datos de imagen de ojo izquierdo (L) se disponen en una primera región de video activo, y los datos de imagen de ojo derecho (R) se disponen en una segunda región de video activo.
Aunque se describe en detalle aquí, en HDMI 1.4, además del formato de video 3D antes descrito de la Figura 50, un formato de video 3D como la estructura de datos de transmisión de TMDS de datos de imágenes estereoscópicas se define. Por ejemplo, existe un tipo de alternativa de línea, un tipo de lado a lado (Completo) , un tipo de paquete de tramas para un formato entrelazado, y similares.
En la caja 200 de convertidor-descodificador de la Figura 36, se emplea una configuración en la cual datos de imágenes estereoscópicas y datos de audio de una banda base se transmiten al receptor 300 de televisión a través de la interfaz de HDMI. A partir de la caja 200 de convertidor-descodificador hasta el receptor 300 de televisión, todos o algunos de los conjuntos de información de disparidad utilizados por la unidad 201 de procesamiento de corrientes de bits se transmiten a través de la interfaz de HDMI para utilizarse .
En la caja de 200 convertidor-descodificador de la Figura 36, un conjunto de información de disparidad se suministra a la unidad 206 de transmisión de HDMI por la unidad 201 de procesamiento de corriente de bits. Después, por la unidad 206 de transmisión de HDMI, junto con los datos de imágenes estereoscópicas y los datos de audio, el conjunto de información de disparidad se suministra desde la terminal 202 de HDMI hasta el cable 400 de HDMI. Además, el receptor 300 de televisión de la Figura 37, el conjunto de información de disparidad recibido por la unidad 303 de recepción de HDMI , como se describe en lo anterior, se suministra a la unidad 313 de generación de datos de visualización de OSD para utilizarse.
[Método para Transmitir Conjunto de Información de Disparidad en HDMI]
Como método para transmitir un conjunto de información de disparidad a través de una interfaz de HDMI, por ejemplo, los siguientes métodos (1) y (2) pueden considerarse .
(1) Método que Utiliza InfoFrame de Vendedor Específico de
HDMI
(2) Método que Utiliza Espacio Activo de Formato de Video 3D tal como tipo de Paquetes de Tramas
Primero, el método que utiliza InfoFrame de Vendedor Específico de HDMI mencionada como (1) se describirá. En este método, en un paquete de InfoFrame de Vendedor Específico de HDMI, se supone que HDMI_Video_Format = "010", 3D_Meta_present = 1, y una extensión de InfoFrame de Vendedor Específico se asigna. En tal caso, se define un 3D_Metadata_type, por ejemplo, como w010" que no se encuentra en uso y la información de un conjunto de información de disparidad (conjunto de disparidad) se designa.
La Figura 51 ilustra una estructura de paquete de la InfoFrame de Vendedor Específico de HDMI . Puesto que la InfoFrame de Vendedor Específico de HDMI se define en CEA-A861-D, una descripción detallada no se presentará.
En el 7o bit al 5o bit del 4o byte (PB4), la información "HDMI_Video_Format" de 3 bits que representa el tipo de datos de imagen se dispone. En un caso donde los datos de imagen son datos de imágenes 3D, la información de los 3 bits se establece como "010". Además, en un caso donde los datos de imágenes son los datos de imágenes 3D, en el 7o bit al 4° bit del 5o byte (PB5) , la información "3D_Structure" de 4 bits que representan la estructura de los datos de transmisión de TMDS se disponen. Por ejemplo, en el caso del tipo de paquete de trama (véase Figura 50) , la información de 4 bits se establece como "0000".
Además, en el 3er bit de 5o byte (PB5), se dispone "3D_Meta_present" y, en un caso en donde se designa una extensión de InfoFrame Vendedor Específico, este bit 1 se establece como "1". Además, en el 7o bit al 5o bit del 7o byte (PB7), se dispone "3D_Metadata_type" . En un caso en donde la información del conjunto de información de disparidad (conjunto de disparidad) se designa, la información de 3 bits, por ejemplo, se establece como "010" que no se encuentra en uso.
Además, en el 4o byte al 0o byte del 7o byte (PB7 ) , se dispone "3D_Metadata_length" . Basándose en la información de 5 bits, la longitud de la región 3D_Metadata que se dispone después de esto se representa. Por ejemplo, en un caso en donde n3D_Metadata_length=27 (OxlB)", se transmite un conjunto de información de disparidad desde la posición dispuesta de manera inmediata después de esto para tener un tamaño de 27 bytes . Por ejemplo, las posiciones del conjunto de información de disparidad (véase Figura 22) que corresponde con cinco pixeles en el "Caso 1" se disponen en el patrón ilustrado.
Después, el método que utiliza el espacio activo mencionado en (2) se describirá. En este método, cuando la estructura de paquete de la InfoFrame Vendedor Especifico se ilustra en la Figura 52, el 2o bit del 5o byte (PB5) , el cual es un bit reservado en el estado actual, "ActiveSpaceEnable" se define, y la información del bit 1 se establece como "1". Además, al utilizar la región de espacio activo que se reserva en el estado actual, se define nuevamente una región de información, y el conjunto de información de disparidad se dispone en la presente.
La región de espacio activo configura el intervalo de video activo junto con la región de video activo en la cual los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho se disponen. Aquí, la región de video activo configura una región de video principal, y la región de espacio activo configura una región de video auxiliar. Aunque la región de espacio activo cambia de acuerdo con el tamaño de imagen de un video, y, en el caso de un tamaño de imagen de 1920x1080, la región de espacio activo tiene una capacidad que corresponde a 45 lineas (86400 bytes) que se acerca a una trama.
Por ejemplo, el tamaño de datos máximo del conjunto de información de disparidad (véase Figura 22) en el "Caso 1" es 1+5*256=1281 bytes, y cae dentro de la región de espacio activo. La Figura 53 ilustra un ejemplo de una disposición de un conjunto de información de disparidad en la región de espacio activo. En el byte 0, la información de "Active_space_info_Type" de 3 bits, el "Block_Size" de 3 bits y "Connect_Info" de 2 bits se disponen. En los bytes 1 y 2, los 8 bits más altos y los 8 bits más bajos de "Data_Length" que tiene 16 bits se disponen los cuales representan la longitud de área en la cual se dispone un conjunto de información de disparidad dispuesto después de esto.
Como se describe en lo anterior, la transmisión de imagen y el sistema 10 de recepción ilustrado en la Figura 1 desde la estación 100 de difusión (unidad 201 de generación de datos de transmisión) hasta la caja 200 convertidor-descodificador o el receptor 300 de televisión, junto con los datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho, de un conjunto de información de disparidad para una posición de pixel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado se transmiten. Por consiguiente, en el lado de recepción, al utilizar el conjunto de información de disparidad, la información de solape que solapa la imagen de ojo izquierdo y la imagen de ojo derecho, por ejemplo, información gráfica incluida en una OSO o similar para la cual se ha realizado un ajuste de disparidad de acuerdo con la perspectiva de cada objeto dentro de una imagen, pueden utilizarse. Por consiguiente, por ejemplo, en una visualización de información gráfica, por ejemplo, una OSD o similar, la consistencia en la perspectiva de cada objeto dentro de la imagen puede mantenerse.
Además, en el sistema 10 de transmisión y recepción de imagen ilustrado en la Figura 1, el conjunto de información de disparidad transmitido desde la estación 100 de difusión (unidad 201 de generación de datos de transmisión) hasta la caja 200 convertidor-descodificador hasta el receptor 300 de televisión incluye datos de posición que representa una posición relativa de la posición de pixel predeterminada con respecto a toda la imagen y los datos de disparidad para la posición de pixel predeterminada. Por consiguiente, el conjunto de información de disparidad es independiente de la resolución de una imagen estereoscópica y también es independiente de la resolución de visualización del monitor o tamaño del monitor. Por lo tanto, en el lado de recepción, el ajuste de disparidad puede realizarse fácilmente al utilizar el conjunto de información de disparidad sin importar la resolución de visualización del monitor o tamaño del monitor.
Además, el sistema 10 de transmisión y recepción de imagen ilustrado en la Figura 1, desde la caja 200 de convertidor-descodificador hasta el receptor 300 de televisión, junto con los datos de imágenes estereoscópicas de un programa predeterminado, un conjunto de información de disparidad para una posición de pixel predeterminada que corresponde con la misma se transmite a través del cable 400 de HDMI . Por consiguiente, en un dispositivo de visualización de imagen tal como un receptor 300 de televisión, al utilizar el conjunto de información de disparidad, la información de solape para solapar la imagen de ojo izquierdo y la imagen de ojo derecho, por ejemplo, información gráfica incluida en una OSD o similar para la cual se ha realizado un ajuste de disparidad de acuerdo con la perspectiva de cada objeto dentro de una imagen, pueden utilizarse. Por consiguiente, por ejemplo, en una visualización de información gráfica, por ejemplo, una OSD o similar, la consistencia en la perspectiva de cada objeto dentro de la imagen puede mantenerse.
<2. Ejemplo Modificado>
Además, en la modalidad antes descrita el sistema 10 de recepción ilustrado para configurarse por la estación 100 de difusión, la caja 200 convertidor-descodificador o el receptor 300 de televisión. Sin embargo, el receptor 300 de televisión como se ilustra en la Figura 37, incluye la unidad 306 de procesamiento de corriente de bit que sirve para lo mismo que la unidad 201 de procesamiento de corriente de bit dispuesta dentro de la caja 200 de convertidor-descodificador . Por consiguiente, como se ilustra en la Figura 55, un sistema 10A de visualización de imagen estereoscópica que se configura por la estación 100 de difusión y el receptor 300 de televisión pueden considerarse.
Además, en la modalidad antes descrita, un ejemplo se ha ilustrado en el cual el descriptor que incluye el conjunto de información de disparidad se inserta en una posición predeterminada de la información de PSI o la información de SI de la corriente de transporte (datos de corriente de bit) . Sin embargo, un caso puede considerarse en el cual el conjunto de información de disparidad se transmite como insertándose en la corriente elemental de video que incluye los datos de imágenes estereoscópicas, una corriente elemental de subtítulos que incluye datos de subtítulos o similares. Más adelante, se describirá un caso en el cual un conjunto de información de disparidad se genera en el "Caso 5" . Aunque no se ilustra en detalle, la presente invención puede aplicarse de manera similar también en un caso donde se genera un conjunto de información de disparidad en cualquier otro caso.
En primer lugar, se describirá un caso en el cual un conjunto de información de disparidad se transmite al insertarse en una corriente elemental de video (corriente de datos de video) incluyendo datos de imágenes estereoscópicas. La Figura 56 ilustra un ejemplo de la configuración de una corriente de transporte (datos de corriente de bit) en tal caso. Como se ilustra en un ejemplo de la configuración, los metadatos (metadatos z-OSD) que incluyen un conjunto de información de disparidad se insertan en una corriente elemental de video. Aquí, los metadatos se integran como datos de usuario.
La Figura 57 ilustra de manera esquemática un ejemplo de la estructura de una corriente elemental de video. En la corriente elemental de video, una sección de encabezado de secuencia que incluye parámetros en unidades de secuencia se dispone. Después de la sección de encabezado de secuencia, un encabezado de imagen que incluye parámetros en unidades de imágenes y datos de usuario se disponen. Después de esta sección de encabezado de imagen, una sección de carga útil que incluye datos de imagen se dispone. Después de esto, la sección de encabezado de imagen y la sección de carga útil se disponen de manera repetida.
El conjunto de información de disparidad antes descrito, por ejemplo, se integra en la región de datos de usuario de la sección de encabezado de imagen. La Figura 58 ilustra un ejemplo de la configuración de los datos de usuario. La Figura 58(a) ilustra la configuración de los datos de usuario en un caso donde un tipo de codificación es MPEG2. La Figura 58(b) ilustra la configuración de datos de usuario en un caso en donde un tipo de codificación es H.264 AVC (MPEG4-AVC) . Además, la Figura 58(c) ilustra la configuración de los datos de usuario en un caso en donde un tipo de codificación es VC-1.
Aunque no se describe en detalle, la configuración de los datos de usuario para cada tipo es casi la misma. En otras palabras, en primer lugar, un código que representa el inicio de datos de usuario se dispone, y después de eso un identificador "user_identifier" que representa el tipo de datos se dispone, y después de eso, un cuerpo principal de datos "user_ structure" se dispone.
La Figura 58 ilustra un ejemplo de la estructura
(Sintaxis) de los datos de usuario que incluyen un conjunto de información de disparidad. En esta estructura, de manera similar al descriptor (Descriptor z-OSD) ilustrado en la Figura 34, el conjunto de información de disparidad generado en el "Caso 5" descrito en lo anterior se incluye. Los datos principales que definen contenidos (Semántica) de este ejemplo de la estructura se ilustran en la Figura 60.
"Número de Puntos de Disparidad" representa un número total de conjuntos de información de disparidad. Por ejemplo, en un caso donde existen dos conjuntos de información de disparidad que incluyen la primera posición de pixel en la cual el valor de la información de disparidad es el máximo (Max) y la posición de pixel (segunda posición de pixel) en la cual el valor de la información de disparidad es el mínimo (Min) , se supone que es el Número de Puntos de Disparidad=l . "relative_plain_mode" es datos de un bit que ilustran el tipo de plano relativo. "relative_plain_mode" representa el Modo de Coordenadas 0 y un plano de coordenadas en el cual el centro de imagen O se establece como su origen (0, 0) . "relative_plain_mode=0" representa el Modo de Coordenadas 1 y un plano de coordenadas en el cual el lado izquierdo superior (izquierdo-superior) de la imagen se establece como su origen (0, 0)) .
"Relative_x" es datos de 11 bits que representan una distancia horizontal (Rxa) desde el origen (0, 0) hasta la posición de pixel (x, y) esta distancia horizontal (Rxa) se representa como una relación con respecto al tamaño de la imagen en la dirección horizontal. "Relative_y" es datos de 11 bits que representan una distancia vertical (Rya) desde el origen (0, 0) hasta la posición de pixel (x, y) . Esta distancia vertical (Rya) se representan como una relación con respecto al tamaño de la imagen en la dirección vertical . "Disparity" es datos de 12 bits que ilustran el valor de la información de disparidad (vector de disparidad) para la posición de pixel (x, y) .
Después, se describirá un caso en el cual se transmite un conjunto de información de disparidad que se inserta con una corriente elemental de subtítulos (corriente de datos de subtítulos) que incluyen datos de subtítulos. La Figura 61 ilustra un ejemplo de la configuración de la corriente de transporte (datos de corriente de bit) en tal caso. Como se ilustra en este ejemplo de la configuración, un segmento (z-OSD: segmento z-OSD) , que incluyen un conjunto de información de disparidad recién definido se insertan en la corriente de subtítulos.
En otras palabras, en la corriente de elemental de subtítulos, segmentos conocidos se incluyen tales como segmento de definición de visualizacion (DDS) , un segmento de composición de página (PCS) , un segmento de composición de región (RCS) y un segmento de datos de objeto (ODS) . Además, en la corriente elemental de subtítulos, un segmento (zOSD) que se incluye en la información de disparidad se incluye. Por ejemplo, como se ilustra en la Figura 62, el tipo de segmento de zSOD "0x50".
La Figura 63 ilustra un ejemplo de la estructura (Sintaxis) del zOSD (segmento -OSD) . Los datos principales que definen contenido (Semántica) del zOSD se ilustran en la Figura 60. "segmen_continued_flag" es la información de indicador de un bit que representa si un segmento de zOSD se ubica o no después del segmento actual . "segmen_continued_flag=l" representa que se encuentra presente un segmento. "segmen_continued_flag=0" representa que no se encuentra presente un segmento. En el lado de recepción puede comprobarse si los segmentos o paquetes en los cuales se incluye el conjunto de información de disparidad se encuentran continuamente presentes o no basándose en la información de indicador, y por consiguiente, la posibilidad de actualización de la información de disparidad y similares puede comprobarse con anticipación.
"delta_PTS[32..0]"es datos de 32 bits que representan una diferencia (cambio) en el PTS (información de tiempo) incluida en la sección de encabezado que especifica el tiempo de visualización de un subtítulo. BDisparity_position_id" es datos de 16 bits que ilustran una posición de pixel que corresponde el conjunto de información de disparidad. Además, los datos de 32 bits se disponen para dividirse en tres.
"relative_plain_mode" es datos de un bit que representan el tipo de plano relativo. Representa el Modo de Coordenada 0 y el plano en el cual el centro de imagen O se establece como el origen (0, 0) . "relative_plain_mode=0" representa el Modo de Coordenadas 1 y un plano de coordenadas en el cual el lado izquierdo superior (izquierdo-superior) de la imagen se establece como su origen (0, 0) .
"Relative_x" es datos de 11 bits que representan una distancia horizontal (Rxa) desde el origen (0, 0) hasta la posición de pixel (x, y) . Esta distancia horizontal (Rxa) se representa como relación con respecto al tamaño de la imagen en la dirección horizontal. "Relative_y" es datos de 11 bits que representan una distancia vertical (Rya) desde el origen (0, 0) hasta la posición de pixel (x, y) . Esta distancia vertical (Rya) se representan como una relación con respecto al tamaño de la imagen en la dirección vertical. wDisparity" es datos de 12 bits que ilustran el valor de la información de disparidad (vector de disparidad) para la posición de pixel (x, y) .
La Figura 64(a) ilustra un ejemplo de la configuración de una corriente de datos de subtítulos convencional. En un encabezado de PES, la información de tiempo (PTS) se incluye. Además, como datos de carga útil de PES, los segmentos de DDS, PCS, RCS, ODS, y EOS se incluyen. La Figura 64(b) ilustra un ejemplo de la configuración de una corriente de datos de subtítulos en la cual se incluye el zOSD antes descrito. En un encabezado de PES, se incluye la información de tiempo (PTS) . Además, como datos de carga útil de PES los segmentos de DDS, PCS, RCS, ODS, zOSD, y EOS se incluyen.
En el ejemplo de la configuración ilustrada en la Figura 64(b), como datos de carga útil de PES, los primeros segmentos de DDS, PCS, RCS, ODS, y zOSD se transmiten. Después de esto, un número predeterminado de segmentos de zOSD en los cuales se actualiza un valor diferencial de tiempo (deltaa_PTS) y el contenido del conjunto de información de disparidad pueden transmitirse. Finalmente, el segmento EOS también se transmite en el segmento de zOSD. En el ejemplo de la configuración ilustrada en la Figura 64(b), los conjuntos de información de disparidad que se actualizan secuencialmente pueden transmitirse al transmitir de manera secuencial los segmentos de zOSD sin transmitir toda la corriente de datos de subtítulos. En este caso aunque wsegment_continued_flag=0" en el último zOSD, es "segment_continued_flag=l" en el zOSD previo.
Después, se describirá un caso en el cual se transmiten conjuntos de información de disparidad como una corriente de metadatos independiente. La Figura 65 ilustra un ejemplo de la configuración de la corriente de transporte (datos de corriente de bit) en tal caso. Como se ilustra en el ejemplo de la configuración, existe una corriente elemental de metadatos en la cual los metadatos (metadatos zODS) que incluyen el conjunto de información de disparidad se insertan.
En la Figura 66 se ilustra un ejemplo de la es uctura (Sintaxis) de una corriente elemental de metadatos en la cual los metadatos (metadatos zOSD) que incluyen un conjunto de información de disparidad se insertan. Datos principales que definen contenido (Semántica) de este ejemplo de la estructura se ilustran en la Figura 60. "zOSM_Metadata_stream_id" representan una corriente de elemental de metadatos en los cuales los metadatos (metadatos z-OSD) se insertan. ttz-OSD_Metadata_set ( ) " represente metadatos que incluyen un conjunto de información de disparidad.
La Figura 67 ilustra un ejemplo de la estructura detallada de " z-OSD_Metadata_set ( ) " . "segmen_continued_flag" es la información de indicador de un bit que representa si un segmento de zOSD se ubica o no después del segmento actual . Msegmen_continued_flag=l" representa que se encuentra presente un segmento. "segmen_continued_flag=0" representa que no se encuentra presente un segmento. En el lado de recepción puede comprobarse si segmentos o paquetes en los cuales se incluye el conjunto de información de disparidad se encuentran presentes o no continuamente basándose en la información de indicador, y por consiguiente, la posibilidad de actualización de la información de disparidad y similares puede comprobarse con anticipación.
"delta_PTS[32..0]"es datos de 32 bits que representan una diferencia (cambio) en el PTS (información de tiempo) incluida en la sección de encabezado que especifica el tiempo de visualización de un subtítulo. "Disparity_j?osition_id" es datos de 16 bits que ilustran una posición de pixel que corresponde el conjunto de información de disparidad. Además, los datos de 32 bits se disponen para dividirse en tres .
"relative_plain_mode" es datos de un bit que representan el tipo de plano relativo. Representa el Modo de Coordenada 0 y el plano en el cual el centro de imagen O se establece como el origen (0, 0) . "relative_plain_mode=0" representa el Modo de Coordenadas 1 y un plano de coordenadas en el cual el lado izquierdo superior (izquierdo-superior) de la imagen se establece como de origen (0, 0) .
"Relative_x" es datos de 11 bits que representan una distancia horizontal (Rxa) desde el origen (0, 0) hasta la posición de pixel (x, y) . Esta distancia horizontal (Rxa) se representa como relación con respecto al tamaño de la imagen en la dirección horizontal. "Relative_y" es datos de 11 bits que representan una distancia vertical (Rya) desde el origen (0, 0) hasta la posición de pixel (x, y) . Esta distancia vertical (Rya) se representan como una relación con respecto al tamaño de la imagen en la dirección vertical . "Disparity" es datos de 12 bits que ilustran el valor de la información de disparidad (vector de disparidad) para la posición de pixel (x, y) .
Como se describe en lo anterior, al inserta un segmento o un paquete que incluye un conjunto de información de disparidad en una corriente elemental de subtítulos o una corriente de metadatos independiente, puede transmitirse el conjunto de información de disparidad. Aquí, el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de una posición de pixel predeterminada con respecto a toda la imagen y los datos de disparidad para la posición de pixel predeterminada.
Sin embargo, la información de disparidad no se limita al conjunto de información de disparidad, y es aparente que la información de disparidad de cualquier otro tipo puede transmitirse de manera similar. En otras palabras, la información de disparidad que se transmitirá, por ejemplo, puede formarse por datos de posición que representan una posición o un área o los datos de disparidad para la posición o el área, y los datos de posición no se limitan al caso de representar una posición relativa con respecto a toda la imagen pero puede representar la posición absoluta dentro de la imagen o similar.
Además, en la modalidad antes descrita, como método para transmitir un conjunto de información de disparidad desde la caja 200 de convertidor-descodificador hasta el receptor 300A de televisión, el método que utiliza InfoFrame de Vendedor Especifico de HDMI y el método que utiliza un espacio activo se han descrito. Contrario a lo anterior, puede considerarse un caso en el cual se realiza transmisión a través de una línea de comunicación bidireccional que se configura por una línea 86 de HPD (línea de HEAC-) y la línea 88 de utilidad (línea de HEAC+ ) .
Además, en la modalidad antes descrita, se ha descrito un caso en el cual la caja 200 de convertidor-descodificador y el receptor 300 de televisión, se conectan a través de la interfaz digital de la HDMI. Sin embargo, es aparente que la presente invención puede aplicarse también a un caso en donde se conecta a través de una interfaz digital (alámbrica o inalámbrica) que es similar a la interfaz digital de la HDMI.
Además, en la modalidad antes descrita, se ha descrito un ejemplo en el cual todos o algunos de los conjuntos de información de disparidad utilizados por la unidad 201 de procesamiento de corriente de bits se transmiten a través de la interfaz de HDMI desde la caja 200 de convertidor-descodificador y hasta el receptor 300 de televisión. Sin embargo, es aparente que la técnica para transmitir un conjunto de información de disparidad a través de una interfaz de HDMI como en lo anterior puede aplicarse a la combinación de otros dispositivos de fuente y dispositivos colectores. Por ejemplo, como el dispositivo de fuente, un reproductor de discos de un BD, un DVD, o similar, un dispositivo de juegos, y similares pueden considerarse y, como el dispositivo colector, un dispositivo de monitor, un aparato proyector, o similar pueden considerarse.
APLICABILIDAD INDUSTRIAL
De acuerdo con la presente invención, una visualización para solapar información, por ejemplo, información gráfica, incluida en una OSD o similar al momento de desplegar una imagen estereoscópica puede realizarse bien y puede aplicarse a un sistema de visualización de imagen estereoscópica y similares.
LISTA DE SIGNOS DE REFERENCIA
10 y 10A Sistema de visualización de imagen estereoscópica
100 Estación de difusión
110 Unidad de generación de datos de transmisión
111L y 11R Cámara
112 Unidad de tramas de video
113 Unidad de generación de mapas de disparidad
114 Micrófono
115 Unidad de búsqueda de datos
115a Medio de grabación de datos
116 a 118 Conmutador de cambio
119 Codificador de video
120 Codificador de audio
122 Unidad de generación de conjunto de información de disparidad
126 Multiplexor
200 Caja de convertidor-descodificador (STB)
201 Unidad de procesamiento de corriente de bit
202 Terminal de HDMI
203 Terminal de antena
204 Sintonizador digital
205 Circuito de procesamiento de video
206 Unidad de transmisión de HDMI
207 Circuito de procesamiento de audio
211 CPU
215 Unidad de recepción de control remoto
216 Transmisor de control remoto
220 Desmul iplexor
221 Descodificador de video
224 Descodificador de audio
226 Unidad de generación de datos de visualizacion OSD
228 Unidad de solape de video
300 Receptor de televisión (TV)
301 Unidad de procesamiento de señales 3D
302 Terminal de HDMI
303 Unidad de recepción de HDMI
304 Terminal de antena
305 Sintonizador digital
306 Unidad de procesamiento de corriente de bit
307 Circuito de procesamiento de video
308 Circuito de excitación de panel
309 Panel de visualizacion
310 Circuito de procesamiento de audio
311 Circuito de amplificación de audio
312 Altavoz
313 Unidad de generación de datos de visualizacion OSD
314 Unidad de solape de video
321 CPU
325 Unidad de recepción de control remoto
326 Transmisor de control remoto
400 Cable de HDMI
Claims (20)
1. Un dispositivo de transmisión de datos de imágenes estereoscópicas que comprende : una unidad de salida de datos de imagen que produce datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho; una unidad de salida de conjunto de información de disparidad que produce un conjunto de información de disparidad para una posición de píxel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado que se produce desde la unidad de salida de datos de imagen; y una unidad de transmisión que transmite los datos de imágenes estereoscópicas producidos desde la unidad de salida de datos de imagen y el conjunto de información de disparidad producido desde la unidad de salida del conjunto de información de disparidad, en donde el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de la posición de píxel predeterminada con respecto a toda una imagen y los datos de disparidad para la posición de píxel predeterminada.
2. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 1, en donde los datos de posición se forman por datos de dirección que representan una dirección de la posición de píxel predeterminada desde un origen al utilizar un centro de imagen como el origen y los datos de distancia que representan una distancia desde el origen hasta la posición de píxel predeterminada.
3. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 2, en donde los datos de disparidad son datos que representan una relación de un valor de la información de disparidad para la posición de píxel predeterminada con la distancia desde el origen .
4. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 2, en donde los datos de disparidad son un valor de la información de disparidad en la resolución de visualización específica para la posición de píxel predeterminada.
5. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 1, en donde los datos de posición se forman por datos de distancia horizontal que representan una distancia horizontal de la posición de píxel predeterminada desde el origen y datos de distancia vertical que representan una distancia vertical de la posición de píxel predeterminada desde el origen.
6. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 5, en donde los datos de disparidad son datos que representan una relación de un valor de la información de disparidad para la posición de píxel predeterminada con respecto a la resolución de visualización específica.
7. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 5, en donde los datos de disparidad son un valor de la información de disparidad para la posición de píxel predeterminada en la resolución de visualización específica.
8. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 1, en donde las posiciones de píxel predeterminadas son una primera posición de píxel en la cual un valor de la información de disparidad es el máximo y una segunda posición de píxel en la cual el valor de la información de disparidad es el mínimo.
9. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 1, en donde la unidad de salida de conjunto de información de disparidad produce el conjunto de información de disparidad de cada período dividido adquirido al dividir de manera igual un período del programa predeterminado en una forma jerárquica.
10. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 1, en donde la unidad de transmisión transmite una corriente de transporte que incluye los datos de imágenes estereoscópicas del programa predeterminado producido desde la unidad de transmisión de datos de imagen e inserta un descriptor que incluye el conjunto de información de disparidad producido desde la unidad de salida del conjunto de información de disparidad en una posición predeterminada de la información de PSI o información de SI que se inserta en la corriente de transporte .
11. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 1, en donde la unidad de transmisión transmite el conjunto de información de disparidad que se incluye con una corriente elemental que se utiliza para trasmitir información predeterminada .
12. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 11, en donde la otra información es datos de imágenes estereoscópicas, y el conjunto de información de disparidad se inserta en una región de datos de usuario de una sección de encabezado de la corriente elemental .
13. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 11, en donde la información predeterminada son datos de subtítulos o datos independientes, y la corriente elemental incluye un segmento o un paquete en el cual se inserta un conjunto de información de disparidad.
14. Un método para transmitir datos de imágenes estereoscópicas, el método comprended: producir datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho; producir un conjunto de información de disparidad para una posición de pixel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado que se produce en la salida de los datos de imágenes estereoscópicas; y transmitir los datos de imágenes estereoscópicas producidos en la salida de los datos de imágenes estereoscópicas y el conjunto de información de disparidad producido en la salida de un conjunto de información de disparidad, en donde el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de la posición de pixel predeterminada con respecto a toda la imagen y datos de disparidad para la posición de pixel predeterminada.
15. Un dispositivo de recepción de datos de imágenes estereoscópicas que comprende: una unidad de recepción que recibe datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho y un conjunto de información de disparidad para una posición de píxel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado; una unidad de salida de datos de información solapada que produce datos de información solapada de ojo izquierdo que corresponden con los datos de imagen de ojo izquierdo que se incluyen en los datos de imágenes estereoscópicas recibidos por la unidad de recepción y datos de información solapada de ojo derecho que corresponden con los datos de imagen de ojo derecho que se incluyen en los datos de imágenes estereoscópicas recibidos por la unidad de recepción; y una unidad de solape de datos que solapa los datos de la información solapada de ojo izquierdo y los datos de la información solapada de ojo derecho, que se producen desde la unidad de salida de datos de información solapada, y los datos de imagen de ojo izquierdo y los datos de imagen de ojo derecho incluidos en los datos de imágenes estereoscópicas recibidos por la unidad de recepción entre sí, en donde el conjunto de información de disparidad incluye datos de posición que representan una porción relativa de la posición de píxel predeterminada con respecto a toda la imagen y los datos de disparidad para la posición de píxel predeterminada, y la unidad de salida de datos de información solapada hace que se presente disparidad entre la información solapada de ojo izquierdo y la información solapada de ojo derecho basándose en el conjunto de información de disparidad recibido por la unidad de recepción.
16. Un dispositivo de recepción de datos de imágenes estereoscópicas que comprende: una unidad de recepción que recibe datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho y un conjunto de información de disparidad para una posición de píxel predeterminada que corresponde con los datos de imágenes estereoscópicas del programa predeterminado ; y una unidad de transmisión que transmite datos de imagen de ojo izquierdo, datos de imagen de ojo derecho y el conjunto de información de disparidad que se reciben por la unidad de recepción hasta un dispositivo externo a través de una línea de transmisión, en donde el conjunto de información de disparidad incluye datos de posición que representan una posición relativa de la posición de píxel predeterminada con respecto a toda la imagen y datos de disparidad para la posición de píxel predeterminada.
17. El dispositivo de recepción de datos de imágenes estereoscópicas de acuerdo con la reivindicación 16, en donde la unidad de transmisión transmite los datos de imagen a través de una pluralidad de canales hasta el dispositivo externo a través de la línea de transmisión al utilizar señales diferenciales, y la unidad de transmisión transmite el conjunto de información de disparidad hasta el dispositivo externo al insertar el conjunto de información de disparidad en un período de supresión de los datos de imagen.
18. El dispositivo de recepción de datos de imágenes estereoscópicas de acuerdo con la reivindicación 16, en donde la unidad de transmisión incluye: una unidad de generación de datos de transmisión que genera datos de transmisión en unidades de un período de campo de vídeo que incluye un intervalo de supresión horizontal, un intervalo de supresión vertical y un intervalo de vídeo activo que se descomponen de acuerdo con una señal de sincronización vertical; y una unidad de transmisión de datos de transmisión que transmite los datos de transmisión generados por la unidad de generación de datos de trasmisión hasta el dispositivo externo a través de la línea de trasmisión a través de una pluralidad de canales al utilizar señales diferenciales , el intervalo de vídeo activo incluye una región de vídeo principal y una región de vídeo auxiliar, y la unidad de generación de datos de transmisión dispone los datos de imagen en la región de vídeo principal y dispone de un conjunto de información de disparidad con respecto a los datos de imagen dispuestos en la región de vídeo principal en la región de vídeo auxiliar.
19. Un dispositivo de transmisión de datos de imágenes estereoscópicas que comprende: una unidad de salida de datos de imagen que produce datos de imágenes estereoscópicas de un programa predeterminado que incluye datos de imagen de ojo izquierdo y datos de imagen de ojo derecho; una unidad de salida de información de disparidad que produce información de disparidad que corresponde con los datos de imágenes estereoscópicas del programa predeterminado que se produce desde la unidad de salida de datos de imagen; y una unidad de transmisión que transmite los datos de imágenes estereoscópicas producidos desde la unidad de salida de datos de imagen y la información de disparidad producida desde la unidad de salida de información de disparidad, en donde la unidad de transmisión inserta un segmento o un paquete que incluye la información de disparidad en una corriente elemental utilizada para transmitir información predeterminada; y el segmento o el paquete además incluye información de tiempo que representa el tiempo de uso de la información de disparidad.
20. El dispositivo de transmisión de datos de imágenes estereoscópicas de acuerdo con la reivindicación 19, en donde el segmento o el paquete además incluye información de indicador que representa si los segmentos o paquetes se encuentran o no continuamente presentes . RESUMEN DE LA INVENCIÓN [Problema] Para permitir la consistencia en el sentido de la perspectiva que se retendrá fácilmente entre cada objeto en una imagen y la información sobrepuesta, por ejemplo, una OSD u otra información gráfica, con la visualización de la imagen estereoscópica. [Solución] una unidad (122) de creación del conjunto de información de disparidad crea un conjunto de información de disparidad para una posición de píxel predeterminada de acuerdo con un mapa de disparidad. La posición de píxel predeterminada por ejemplo, es la posición de píxel en la cual el valor de información de disparidad es el más alto, es decir, la posición de píxel que se percibe es la más cercana. El conjunto de información de disparidad incluye datos de posición que indican la porción relativa con respecto a toda la imagen, y los datos de disparidad para esta posición. El conjunto de información de disparidad se sincroniza de manera espacial con datos de imágenes estereoscópicas. Este conjunto de información de disparidad es independiente de la resolución de la imagen estereoscópica, e independiente del tamaño del monitor y la resolución de visualización del monitor. En cada período obtenido al dividir igualmente el período de programa de difusión de un programa de difusión predeterminado de manera jerárquica, la unidad (122) de creación del conjunto de información de disparidad crea un conjunto de información de disparidad. El conjunto de información de disparidad se sincroniza temporalmente con los datos de imágenes estereoscópicas .
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010199370A JP5633259B2 (ja) | 2010-09-06 | 2010-09-06 | 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 |
| PCT/JP2011/069887 WO2012032997A1 (ja) | 2010-09-06 | 2011-09-01 | 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| MX2012005359A true MX2012005359A (es) | 2012-06-08 |
Family
ID=45810599
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| MX2012005359A MX2012005359A (es) | 2010-09-06 | 2011-09-01 | Dispositivo de transmision de datos de imagenes estereoscopicas, metodo de transmision de datos de imagenes estereoscopicas, y dispositivo de recepcion de datos de imagenes estereoscopicas. |
Country Status (11)
| Country | Link |
|---|---|
| US (1) | US20120262546A1 (es) |
| EP (1) | EP2485492A4 (es) |
| JP (1) | JP5633259B2 (es) |
| KR (1) | KR20130098132A (es) |
| CN (1) | CN102714746A (es) |
| AU (1) | AU2011300020B2 (es) |
| BR (1) | BR112012010777A2 (es) |
| CA (1) | CA2779687A1 (es) |
| MX (1) | MX2012005359A (es) |
| RU (1) | RU2012118689A (es) |
| WO (1) | WO2012032997A1 (es) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20130099403A (ko) * | 2012-02-29 | 2013-09-06 | 삼성전자주식회사 | 이미지 프로세싱 방법 및 이를 이용한 이미지 프로세싱 유닛 |
| JP6307213B2 (ja) * | 2012-05-14 | 2018-04-04 | サターン ライセンシング エルエルシーSaturn Licensing LLC | 画像処理装置、画像処理方法およびプログラム |
| KR101966920B1 (ko) | 2012-07-10 | 2019-04-08 | 삼성전자주식회사 | 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치 |
| CN103686118A (zh) * | 2012-09-19 | 2014-03-26 | 珠海扬智电子科技有限公司 | 影像深度调整方法与装置 |
| US9762889B2 (en) * | 2013-05-08 | 2017-09-12 | Sony Corporation | Subtitle detection for stereoscopic video contents |
| EP2814251A1 (en) * | 2013-06-14 | 2014-12-17 | Pace Plc | Method and system for operating a set-top-box supporting 3D video content |
| JP5984858B2 (ja) * | 2014-01-24 | 2016-09-06 | キヤノン株式会社 | 画像処理装置及びプログラム |
| US10979689B2 (en) * | 2014-07-16 | 2021-04-13 | Arris Enterprises Llc | Adaptive stereo scaling format switch for 3D video encoding |
| US9699390B2 (en) * | 2014-09-02 | 2017-07-04 | Htc Corporation | Controlling method for image capturing and image integration |
| JP7011728B2 (ja) * | 2018-09-28 | 2022-01-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法 |
| CN110853588A (zh) * | 2019-10-23 | 2020-02-28 | 西安万像电子科技有限公司 | 数据处理方法及装置 |
Family Cites Families (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11155152A (ja) * | 1997-11-21 | 1999-06-08 | Canon Inc | 三次元形状情報入力方法及び装置及び画像入力装置 |
| JP2004274125A (ja) * | 2003-03-05 | 2004-09-30 | Sony Corp | 画像処理装置および方法 |
| JP4190357B2 (ja) | 2003-06-12 | 2008-12-03 | シャープ株式会社 | 放送データ送信装置、放送データ送信方法および放送データ受信装置 |
| CN101653011A (zh) * | 2007-03-16 | 2010-02-17 | 汤姆森许可贸易公司 | 用于将文本与三维内容相结合的系统和方法 |
| JP4739291B2 (ja) * | 2007-08-09 | 2011-08-03 | 富士フイルム株式会社 | 撮影画角算出装置 |
| CN101589619A (zh) * | 2007-11-20 | 2009-11-25 | 索尼株式会社 | 信息处理装置、信息处理方法、显示控制装置、显示控制方法和程序 |
| JP2009135686A (ja) * | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
| KR101506219B1 (ko) * | 2008-03-25 | 2015-03-27 | 삼성전자주식회사 | 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체 |
| US20090315981A1 (en) * | 2008-06-24 | 2009-12-24 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
| US9357231B2 (en) * | 2008-07-31 | 2016-05-31 | Mitsubishi Electric Corporation | Video encoding device, video encoding method, video reproducing device, video reproducing method, video recording medium, and video data stream |
| CN102150433B (zh) * | 2008-09-18 | 2014-04-09 | 松下电器产业株式会社 | 立体视觉影像再现装置及立体视觉影像显示装置 |
| SG172182A1 (en) * | 2008-09-30 | 2011-07-28 | Panasonic Corp | Reproduction device, recording medium, and integrated circuit |
| JP4637942B2 (ja) * | 2008-09-30 | 2011-02-23 | 富士フイルム株式会社 | 3次元表示装置および方法並びにプログラム |
| US8482654B2 (en) * | 2008-10-24 | 2013-07-09 | Reald Inc. | Stereoscopic image format with depth information |
| US8335425B2 (en) * | 2008-11-18 | 2012-12-18 | Panasonic Corporation | Playback apparatus, playback method, and program for performing stereoscopic playback |
| JP4737573B2 (ja) * | 2009-02-05 | 2011-08-03 | 富士フイルム株式会社 | 3次元画像出力装置及び方法 |
| WO2010092823A1 (ja) * | 2009-02-13 | 2010-08-19 | パナソニック株式会社 | 表示制御装置 |
| JP5820276B2 (ja) * | 2009-02-17 | 2015-11-24 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 3d画像及びグラフィカル・データの結合 |
| JP5390016B2 (ja) * | 2010-03-24 | 2014-01-15 | パナソニック株式会社 | 映像処理装置 |
-
2010
- 2010-09-06 JP JP2010199370A patent/JP5633259B2/ja not_active Expired - Fee Related
-
2011
- 2011-09-01 MX MX2012005359A patent/MX2012005359A/es active IP Right Grant
- 2011-09-01 AU AU2011300020A patent/AU2011300020B2/en not_active Ceased
- 2011-09-01 BR BR112012010777A patent/BR112012010777A2/pt not_active IP Right Cessation
- 2011-09-01 US US13/505,631 patent/US20120262546A1/en not_active Abandoned
- 2011-09-01 CN CN2011800060755A patent/CN102714746A/zh active Pending
- 2011-09-01 EP EP11823473.1A patent/EP2485492A4/en not_active Withdrawn
- 2011-09-01 KR KR1020127011600A patent/KR20130098132A/ko not_active Withdrawn
- 2011-09-01 WO PCT/JP2011/069887 patent/WO2012032997A1/ja not_active Ceased
- 2011-09-01 RU RU2012118689/07A patent/RU2012118689A/ru not_active Application Discontinuation
- 2011-09-01 CA CA2779687A patent/CA2779687A1/en not_active Abandoned
Also Published As
| Publication number | Publication date |
|---|---|
| EP2485492A1 (en) | 2012-08-08 |
| BR112012010777A2 (pt) | 2019-09-24 |
| JP5633259B2 (ja) | 2014-12-03 |
| RU2012118689A (ru) | 2013-11-10 |
| JP2012060267A (ja) | 2012-03-22 |
| US20120262546A1 (en) | 2012-10-18 |
| WO2012032997A1 (ja) | 2012-03-15 |
| AU2011300020A1 (en) | 2012-05-31 |
| AU2011300020B2 (en) | 2014-09-18 |
| CA2779687A1 (en) | 2012-03-15 |
| EP2485492A4 (en) | 2014-07-02 |
| CN102714746A (zh) | 2012-10-03 |
| KR20130098132A (ko) | 2013-09-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5446913B2 (ja) | 立体画像データ送信装置および立体画像データ送信方法 | |
| JP5531972B2 (ja) | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 | |
| MX2012005359A (es) | Dispositivo de transmision de datos de imagenes estereoscopicas, metodo de transmision de datos de imagenes estereoscopicas, y dispositivo de recepcion de datos de imagenes estereoscopicas. | |
| US9924151B2 (en) | Transmitting apparatus for transmission of related information of image data | |
| CN102369735B (zh) | 立体图像数据发送装置、立体图像数据发送方法、立体图像数据接收装置和立体图像数据接收方法 | |
| CN102177724B (zh) | 立体图像数据传输装置、立体图像数据发送方法、立体图像数据接收装置和立体图像数据接收方法 | |
| CN102342113B (zh) | 立体图像数据传输装置和立体图像数据接收装置 | |
| WO2011001859A1 (ja) | 立体画像データ送信装置および立体画像データ受信装置 | |
| JP2011166757A (ja) | 送信装置、送信方法および受信装置 | |
| EP2503785A1 (en) | Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device and stereoscopic image data reception method | |
| WO2012026342A1 (ja) | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 | |
| US20130215222A1 (en) | Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FG | Grant or registration |