JP2003111101A - Method, apparatus and system for processing stereoscopic image - Google Patents
Method, apparatus and system for processing stereoscopic imageInfo
- Publication number
- JP2003111101A JP2003111101A JP2001294981A JP2001294981A JP2003111101A JP 2003111101 A JP2003111101 A JP 2003111101A JP 2001294981 A JP2001294981 A JP 2001294981A JP 2001294981 A JP2001294981 A JP 2001294981A JP 2003111101 A JP2003111101 A JP 2003111101A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- stereoscopic
- basic
- stereoscopic image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 69
- 238000012545 processing Methods 0.000 title claims description 58
- 230000008569 process Effects 0.000 claims description 21
- 238000003672 processing method Methods 0.000 claims description 11
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 9
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 230000004888 barrier function Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 239000013256 coordination polymer Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 101100321669 Fagopyrum esculentum FA02 gene Proteins 0.000 description 1
- 101000872823 Xenopus laevis Probable histone deacetylase 1-A Proteins 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は立体画像処理技術
に関し、とくに、立体画像を処理または表示する方法、
装置、システムおよび関連するコンピュータプログラム
とデータ構造に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereoscopic image processing technique, and more particularly to a method for processing or displaying a stereoscopic image,
The invention relates to devices, systems and related computer programs and data structures.
【0002】[0002]
【従来の技術】ここ数年、インターネット利用人口が急
増し、インターネット利用の新たなステージともいえる
ブロードバンド時代に入ろうとしている。ブロードバン
ド通信では通信帯域が格段に広がるため、従来敬遠され
がちだった重い画像データの配信も盛んになる。「マル
チメディア」や「ビデオ・オン・デマンド」などの概念
は提起されて久しいが、ブロードバンド時代になって、
はじめてこれらのことばが一般のユーザに実感をもって
体験される状況になった。2. Description of the Related Art In recent years, the population of users of the Internet has rapidly increased, and the broadband era, which can be said to be a new stage of Internet usage, is about to enter. In broadband communication, the communication band is remarkably widened, so heavy image data, which has been often shunned in the past, is becoming popular. Concepts such as "multimedia" and "video on demand" have long been proposed, but in the broadband era,
For the first time, it became the situation that ordinary users could actually experience these words.
【0003】画像、とくに動画像の配信が広がれば、ユ
ーザは当然ながらコンテンツの充実と画質の向上を求め
る。これらは、既存の映像ソフトのデジタル化とそのた
めのオーサリングツールの開発、高効率かつロスの少な
い画像符号化技術の追求などに負うところが大きい。When the distribution of images, especially moving images, becomes widespread, users naturally demand the enhancement of contents and the improvement of image quality. These are largely due to the digitization of existing video software, the development of authoring tools therefor, and the pursuit of highly efficient and lossless image coding technology.
【0004】[0004]
【発明が解決しようとする課題】こうした状況下、近い
将来画像配信サービスのひとつの形態として、擬似三次
元画像(以下単に「立体画像」ともいう)の配信が技術
的に注目され、かつ相当の市場を獲得することが考えら
れる。立体画像は、よりリアルな映像を求めるユーザの
希望を叶え、とくに映画やゲームなど臨場感を追求する
アプリケーションでは魅力的である。さらに立体画像
は、21世紀の商取引のひとつの標準になると思われる
EC(電子商取引)における商品プレゼンテーションに
おいて、商品のリアルな表示にも有用である。Under these circumstances, as one form of image distribution service in the near future, the distribution of pseudo three-dimensional images (hereinafter also simply referred to as "stereoscopic images") has received technical attention and is considerable. It is possible to win the market. Stereoscopic images fulfill users' desires for more realistic images, and are particularly attractive for applications such as movies and games that seek a sense of presence. Further, the three-dimensional image is also useful for realistic display of products in product presentation in EC (electronic commerce) which is considered to be one of the standards of commerce in the 21st century.
【0005】しかしながら、立体画像の配信という新し
いネットビジネスを考えたとき、そのためのインフラス
トラクチャもビジネス推進のためのモデルもまだ存在し
ないといってもよい。本発明者はそうした現状に着目し
て本発明をなしたものであり、その目的は、立体画像の
流通促進を技術的側面から可能にするための立体画像処
理技術を提供することにある。However, when considering a new net business of distribution of stereoscopic images, it can be said that neither an infrastructure therefor nor a model for business promotion exists yet. The present inventor has made the present invention paying attention to such a current situation, and an object thereof is to provide a stereoscopic image processing technique for facilitating distribution of a stereoscopic image from a technical aspect.
【0006】[0006]
【課題を解決するための手段】本発明の理解のために、
まず本明細書における以下の概念を定義する。
「立体画像」: 画像データそのものではなく、立体的
に表示された結果、ユーザの目に投ずる画像を観念的に
指す。立体画像として表示できる画像データのほうは、
後述する「マルチプレクス画像」とよぶ。すなわち、マ
ルチプレクス画像を表示すると、立体画像が見える。
「視差画像」: 通常、奥行き感のある立体視のために
は、視差が生じるよう右目に投ずるべき画像(以下、単
に右目画像という)と左目に投ずるべき画像(以下、単
に左目画像という)を準備する必要がある。右目画像と
左目画像のように視差を生じさせる画像の対を視差画像
と総称する場合もあるが、本明細書では、視差を生じさ
せる原因となる画像それぞれを視差画像とよぶ。つま
り、右目画像も左目画像もそれぞれ視差画像である。こ
れら以外にも、一般には、立体画像において想定された
各視点からの画像がそれぞれ視差画像となる。To understand the present invention,
First, the following concepts in this specification will be defined. “Stereoscopic image”: It is not the image data itself but the image displayed as a stereoscopic image, which conceptually refers to the image that the user sees. The image data that can be displayed as a stereoscopic image is
It is called "multiplex image" described later. That is, when a multiplex image is displayed, a stereoscopic image can be seen. “Parallax image”: Generally, for stereoscopic viewing with a sense of depth, an image that should be cast on the right eye (hereinafter simply referred to as the right eye image) and an image that should be cast on the left eye (hereinafter simply referred to as the left eye image) so that parallax occurs. You need to prepare. A pair of images that cause parallax, such as a right-eye image and a left-eye image, may be collectively referred to as a parallax image, but in the present specification, each image that causes parallax is referred to as a parallax image. That is, both the right-eye image and the left-eye image are parallax images. In addition to these, generally, images from respective viewpoints assumed in a stereoscopic image are parallax images.
【0007】「基礎画像」: 立体画像が表示されるた
めに、立体視に必要な処理をなす対象の画像、またはす
でに処理がなされた画像をいう。具体的な例として、後
述のセパレート形式の視差画像の他、マルチプレクス形
式またはサイドバイサイド形式のごとく、すでに複数の
視差画像が何らかの形で合成されてできた画像(これら
を「合成画像」ともいう)を含む。
「サイドバイサイド形式」: 基礎画像の構成の態様の
ひとつ。複数の視差画像を水平方向、垂直方向またはそ
れらの両方向に並置して合成した形式。通常は間引きさ
れた視差画像を並置する。例えば水平方向に2枚の視差
画像を並置して構成する場合、それぞれの視差画像を水
平方向に一画素ごとに間引く。サイドバイサイド形式の
基礎画像を単に「サイドバイサイド画像」ともよぶ。"Basic image": An image which is a target for which processing necessary for stereoscopic viewing is performed in order to display a stereoscopic image, or an image which has already been processed. As a specific example, in addition to separate parallax images to be described later, images such as multiplex format or side-by-side format that have already been composed in some form by combining multiple parallax images (also referred to as “composite images”) including. “Side-by-side format”: One of the basic image configuration modes. A format in which multiple parallax images are placed side by side in the horizontal or vertical direction or in both directions. Usually, thinned parallax images are juxtaposed. For example, when two parallax images are arranged side by side in the horizontal direction, each parallax image is thinned out pixel by pixel in the horizontal direction. The side-by-side format basic image is also simply called "side-by-side image".
【0008】「マルチプレクス形式」: 基礎画像の構
成の態様のひとつ。立体画像を表示するための最終的な
画像データの形式。マルチプレクス形式の基礎画像を単
に「マルチプレクス画像」ともよぶ。
「セパレート形式」: 基礎画像の構成の態様のひと
つ。単独の二次元画像だが、他の二次元画像と組み合わ
されて立体視されることが想定されており、それら複数
の二次元画像のそれぞれを指す。「セパレート形式」の
基礎画像を単に「セパレート画像」ともよぶ。セパレー
ト画像はマルチプレクス画像やサイドバイサイド画像と
違い、合成画像ではない。"Multiplex format": One of the basic image construction modes. The final image data format for displaying stereoscopic images. The basic image in the multiplex format is also simply called “multiplex image”. “Separate format”: One of the basic image configuration modes. Although it is a single two-dimensional image, it is supposed to be combined with other two-dimensional images for stereoscopic viewing, and refers to each of the plurality of two-dimensional images. The basic image in “separate format” is also simply referred to as “separate image”. Separate images are not composite images, unlike multiplex images and side-by-side images.
【0009】「視点」: 立体画像にはそれを見る視点
が想定されている。視点の数と視差画像の数は通常等し
い。左目画像と右目画像のふたつの視差画像があると
き、視点の数は「2」である。ただし、視点がふたつで
も、ユーザの頭の想定位置はひとつである。同様に、左
右方向のユーザの移動を考慮した立体画像を表示する場
合、例えば左右方向に4つの視点va、vb、vc、v
dを想定し、それぞれから見える視差画像をIa、I
b、Ic、Idとすれば、例えば(Ia,Ib)(I
b,Ic)(Ic,Id)の3組の視差画像によって奥
行き感のある立体画像が表示できる。この状態でさら
に、上下方向に回り込んだ立体画像を生成するために、
相対的に上の方向から見た4つの画像と、同様に下の方
向から見た4つの画像を利用するとすれば、視点の数は
「8」となる。"Viewpoint": A viewpoint for viewing a stereoscopic image is assumed. The number of viewpoints and the number of parallax images are usually equal. When there are two parallax images, the left-eye image and the right-eye image, the number of viewpoints is “2”. However, even if there are two viewpoints, the estimated position of the user's head is one. Similarly, when displaying a stereoscopic image in consideration of the movement of the user in the left and right direction, for example, four viewpoints va, vb, vc, and v in the left and right direction.
Assuming d, the parallax images seen from each are Ia, I
If b, Ic, and Id, for example, (Ia, Ib) (I
A stereoscopic image with a sense of depth can be displayed by three sets of parallax images of (b, Ic) (Ic, Id). In this state, to generate a stereoscopic image that wraps around in the vertical direction,
If four images viewed from a relatively upper direction and four images viewed from a lower direction are used, the number of viewpoints is “8”.
【0010】以上の定義のもと、本発明のある態様は、
立体画像処理方法に関する。この方法は、立体画像の流
通の起点ともいうべき符号化側の技術と把握することが
できる。この方法は、立体画像を表示するための基礎画
像に、その立体画像を表示するための一連の処理におけ
る所定の場面にて参照すべき情報(以下「立体情報」と
もいう)を付加するものである。Based on the above definition, one embodiment of the present invention is
The present invention relates to a stereoscopic image processing method. This method can be understood as a technique on the encoding side that should be called the starting point of distribution of stereoscopic images. This method adds information (hereinafter also referred to as “stereoscopic information”) to be referred to in a predetermined scene in a series of processing for displaying the stereoscopic image to a basic image for displaying the stereoscopic image. is there.
【0011】「付加する」とは、基礎画像の中に組み込
んでもよいし、基礎画像のヘッダその他の領域に組み込
んでもよいし、基礎画像と関連づけられた別ファイルな
どに組み込んでもよく、要するに基礎画像との対応関係
を設ければよい。「立体画像を表示するための一連の処
理における所定の場面」の例は、例えばサイドバイサイ
ド画像をマルチプレクス画像へ変換する場面である。"Add" may be incorporated in the basic image, may be incorporated in the header of the basic image or other areas, or may be incorporated in a separate file or the like associated with the basic image. It suffices to establish a correspondence relationship with. An example of the “predetermined scene in a series of processes for displaying a stereoscopic image” is, for example, a scene in which a side-by-side image is converted into a multiplex image.
【0012】この方法によれば、立体情報を参照するこ
とにより、適切な方法で立体画像を表示することができ
る。この方法で多数の基礎画像を準備すれば、種々の情
報端末がそのデータを取りだして立体表示できるため、
この方法は立体画像流通のための基礎技術として働く。
この方法は、例えば立体画像サーバにて利用可能であ
る。According to this method, the stereoscopic image can be displayed by an appropriate method by referring to the stereoscopic information. If you prepare a large number of basic images in this way, various information terminals can take out the data and display it in 3D.
This method serves as the basic technology for the distribution of stereoscopic images.
This method can be used, for example, in a stereoscopic image server.
【0013】本発明の別の態様は、上述の方法によって
生成された画像データの構造に関する。このデータ構造
は、立体画像を表示するための基礎画像の主データと、
その立体画像を表示するための一連の処理における所定
の場面にて参照すべき情報、すなわち立体情報を保持す
る副データとの組合せとして形成されている。主データ
は基礎画像を所定の手法にて圧縮したものであってもよ
い。「組合せ」とは、両者が一体の場合の他、両者に何
らかの関連づけがなされていればよい。このデータ構造
によれば、上述のごとく、表示側にて容易に立体表示が
実現する。Another aspect of the present invention relates to the structure of the image data produced by the method described above. This data structure is the main data of the basic image for displaying a stereoscopic image,
It is formed as a combination with information to be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image, that is, sub-data holding stereoscopic information. The main data may be a basic image compressed by a predetermined method. The “combination” may be a combination of the two, or a combination of the two. According to this data structure, as described above, stereoscopic display is easily realized on the display side.
【0014】本発明のさらに別の態様も立体画像処理方
法に関する。この方法は、上述のデータ構造を解釈して
利用するもの、すなわち一般には立体画像を表示する復
号側の技術と把握することができる。この方法は、立体
画像を表示するための基礎画像に付加された、その立体
画像を表示するための一連の処理における所定の場面に
て参照すべき情報、すなわち立体情報を検出するもので
ある。検出を容易にするために、立体情報の付加は予め
符号化側と合意された所定の形式にしたがってなされて
もよい。この方法はさらに、検出された立体情報をもと
に基礎画像の構成の態様を別のものに変換してもよい。Yet another aspect of the present invention also relates to a stereoscopic image processing method. This method can be understood as a method that interprets and uses the above-mentioned data structure, that is, a technique on the decoding side that generally displays a stereoscopic image. This method detects information that is added to a basic image for displaying a stereoscopic image and should be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image, that is, stereoscopic information. To facilitate the detection, the stereoscopic information may be added according to a predetermined format previously agreed with the encoding side. The method may further convert the aspect of the configuration of the basic image into another one based on the detected stereoscopic information.
【0015】本発明のさらに別の態様も立体画像処理方
法に関する。この方法は、メモリを有する装置にて立体
画像を扱う際、画面に最終的に表示される基礎画像の構
成の態様とは異なる態様の基礎画像を前記メモリへ保持
しておき、適宜これを読み出して利用するものである。
例えば、立体画像の表示にマルチプレクス画像が用いら
れても、その立体画像に拡大その他の処理を施したいと
き、マルチプレクス形式よりもサイドバイサイド形式の
ほうが好都合なことがある。その場合、メモリにはサイ
ドバイサイド画像を保持しておけば処理の高速化が実現
する。Yet another aspect of the present invention also relates to a stereoscopic image processing method. In this method, when a stereoscopic image is handled by a device having a memory, a basic image of a mode different from that of the structure of the basic image finally displayed on the screen is held in the memory, and the basic image is read out as appropriate. To use.
For example, even if a multiplex image is used to display a stereoscopic image, the side-by-side format may be more convenient than the multiplex format when the stereoscopic image is to be enlarged or otherwise processed. In that case, if the side-by-side image is stored in the memory, the processing speed can be increased.
【0016】本発明のさらに別の態様も立体画像処理方
法に関する。この方法は、立体画像を表示するための基
礎画像に付加された、その立体画像を表示するための一
連の処理における所定の場面にて参照すべき情報、すな
わち立体情報を検出し、その情報をもとに立体画像の表
示画面の輝度を調整する。たとえば、立体情報として、
立体画像に想定された視点の数に関する情報を入れてお
き、輝度をその数に応じて調整してもよい。Yet another aspect of the present invention also relates to a stereoscopic image processing method. This method detects information that is added to a basic image for displaying a stereoscopic image and should be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image, that is, stereoscopic information, and Originally, the brightness of the display screen of the stereoscopic image is adjusted. For example, as three-dimensional information,
Information about the number of assumed viewpoints may be put in the stereoscopic image, and the brightness may be adjusted according to the number.
【0017】仮に視点数が「4」であると、4枚の視差
画像を合成してマルチプレクス画像が形成される。4つ
の視点のうちいずれかひとつの視点から見える画素数は
通常の二次元画像を見た場合の1/4にとどまる。した
がって、画面の輝度は理論上通常の1/4となる。この
ため、視点数に応じて表示装置の画面の輝度を高める処
理が有効になる。この処理は、例えば視点数を検出する
ソフトウエアと輝度を調整する回路の協働によってなさ
れる。If the number of viewpoints is "4", four parallax images are combined to form a multiplex image. The number of pixels that can be seen from any one of the four viewpoints is only 1/4 that of a normal two-dimensional image. Therefore, the screen brightness is theoretically 1/4 of the normal level. Therefore, the process of increasing the brightness of the screen of the display device according to the number of viewpoints is effective. This processing is performed by the cooperation of software for detecting the number of viewpoints and a circuit for adjusting the brightness, for example.
【0018】本発明のさらに別の態様は、立体画像処理
装置に関する。この装置は、立体画像を準備する符号化
側のものであり、立体画像を表示するための基礎画像を
取得する画像取得部と、取得された基礎画像に、その立
体画像を表示するための一連の処理における所定の場面
にて参照すべき情報、すなわち立体情報を付加する情報
付加部とを含む。画像取得部は、自ら基礎画像を生成し
てもよいし、既製の基礎画像を入力してもよい。Yet another aspect of the present invention relates to a stereoscopic image processing apparatus. This device is on the encoding side that prepares a stereoscopic image, and includes an image acquisition unit that acquires a basic image for displaying the stereoscopic image, and a series for displaying the stereoscopic image on the acquired basic image. The information adding section for adding information to be referred to in a predetermined scene in the processing of 1, ie, stereoscopic information. The image acquisition unit may generate the basic image by itself, or may input the ready-made basic image.
【0019】本発明のさらに別の態様も立体画像処理装
置に関する。この装置は、立体画像を実際に表示し、ま
たはそのための前処理を行うものであり、立体画像を表
示するための基礎画像を取得する画像取得部と、取得さ
れた基礎画像に付加された、その立体画像を表示するた
めの一連の処理における所定の場面にて参照すべき情
報、すなわち立体情報を検出する情報検出部とを含む。
画像取得部は、たとえばネットワーク経由または記録媒
体などから基礎画像を取得または入力する。画像取得部
は、予め圧縮されていた画像データを入力する画像入力
部と、入力された画像データを伸張することによって基
礎画像を生成する画像伸張部とを含んでもよく、検出さ
れた情報をもとに前記立体画像の表示画面の輝度を調整
する輝度調整部を含んでもよい。Yet another aspect of the present invention also relates to a stereoscopic image processing apparatus. This device is for actually displaying a stereoscopic image, or for performing preprocessing therefor, and an image acquisition unit for acquiring a basic image for displaying a stereoscopic image, and added to the acquired basic image, It includes information to be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image, that is, an information detection unit for detecting stereoscopic information.
The image acquisition unit acquires or inputs a basic image via, for example, a network or a recording medium. The image acquisition unit may include an image input unit that inputs image data that has been compressed in advance, and an image expansion unit that generates a basic image by expanding the input image data. In addition, a brightness adjusting unit for adjusting the brightness of the display screen of the stereoscopic image may be included.
【0020】本発明のさらに別の態様は、立体画像処理
システムに関する。このシステムは立体画像の合成装置
と表示装置を含み、合成装置は、立体画像を表示するた
めの基礎画像に、その立体画像を表示するための一連の
処理における所定の場面にて参照すべき情報、すなわち
立体情報を組み込み、表示装置は、立体情報を検出して
これをもとに基礎画像に適宜画像処理を施し、立体画像
を表示する。画像処理の例として、基礎画像の構成の態
様の変更がある。本システムはサーバ・クライアントシ
ステムであってもよい。本システムは立体画像の流通促
進に寄与できる。Yet another aspect of the present invention relates to a stereoscopic image processing system. This system includes a stereoscopic image synthesizing device and a display device, and the synthesizing device is a basic image for displaying a stereoscopic image, and information to be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image. That is, the stereoscopic information is incorporated, and the display device displays the stereoscopic image by detecting the stereoscopic information and appropriately performing image processing on the basic image based on the stereoscopic information. As an example of image processing, there is a change in the form of the basic image configuration. The system may be a server / client system. This system can contribute to the promotion of distribution of stereoscopic images.
【0021】本発明のさらに別の態様は立体画像処理方
法に関する。この方法は、立体画像を表示するための基
礎画像を取得し、この基礎画像の一部を検査することに
よって立体画像を表示するための一連の処理における所
定の場面にて参照すべき情報、すなわち立体情報を推定
するものである。いままでに述べた場合とは異なり、こ
こでは立体情報が明示的に付加されていない場合の処理
を考えている。そのため、基礎画像の一部が実際に検査
される。一例として、基礎画像上のいくつかの領域を調
べることにより、これがサイドバイサイド画像であるか
否かが推定される。Yet another aspect of the present invention relates to a stereoscopic image processing method. This method obtains a basic image for displaying a stereoscopic image, and inspects a part of the basic image, information to be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image, that is, It is for estimating stereoscopic information. Unlike the case described so far, here, the processing when the stereoscopic information is not explicitly added is considered. Therefore, a part of the basic image is actually inspected. As an example, by examining some regions on the base image, it is estimated whether this is a side-by-side image.
【0022】この方法によれば、明示的に立体情報が与
えられていない場合でも、基礎画像からそれを知ること
ができる。したがって一般的な手法で作成された過去の
画像を利用することができ、ソフト資産の有効活用が図
られる。According to this method, even when the stereoscopic information is not explicitly given, it can be known from the basic image. Therefore, the past image created by the general method can be used, and the software assets can be effectively used.
【0023】なお、以上の構成要素の任意の組合せ、本
発明の表現を方法、装置、システム、コンピュータプロ
グラム、記録媒体、伝送媒体などの間で変換したものも
また、本発明の態様として有効である。It is to be noted that any combination of the above constituent elements, and the expression of the present invention converted between a method, an apparatus, a system, a computer program, a recording medium, a transmission medium, etc. are also effective as an aspect of the present invention. is there.
【0024】[0024]
【発明の実施の形態】LCDに画像を表示するとき、通
常、表示の最小単位はドットである。しかし、RGBに
対応する3個のドットが集まってひとつのピクセルが形
成され、通常の画像表示または画像処理ではピクセルが
処理の最小単位として意識される。BEST MODE FOR CARRYING OUT THE INVENTION When displaying an image on an LCD, the minimum display unit is usually a dot. However, one pixel is formed by collecting three dots corresponding to RGB, and a pixel is recognized as the minimum unit of processing in normal image display or image processing.
【0025】しかし、立体画像をLCDに表示する場
合、別の配慮が必要になる。右目画像と左目画像は、レ
ンチキュラーレンズやパララックスバリアなどの光学フ
ィルタを通して、視差をもってユーザの目に到達する。
左右両目の画像をピクセル単位、すなわち3ドット単位
で交互に配置すると、右目画像のみが見える領域と左目
画像だけが見える領域との間に、両方の画像が見える領
域が発生し、色も混ざり、非常に見にくくなる。そのた
め、物理的な最小表示要素であるドット単位による交互
の配置が望ましい。そこで、立体表示すべき基礎画像と
して、ドット単位で右目画像と左目画像を交互に配置し
たマルチプレクス画像が利用されることが多い。However, when displaying a stereoscopic image on the LCD, another consideration is required. The right-eye image and the left-eye image reach the user's eye with parallax through an optical filter such as a lenticular lens or a parallax barrier.
When the left and right images are alternately arranged in pixel units, that is, in 3 dot units, a region in which both images are visible occurs between the region in which only the right eye image is visible and the region in which only the left eye image is visible, and colors are mixed, Very hard to see. Therefore, it is desirable that the dots are alternately arranged, which is the minimum physical display element. Therefore, a multiplex image in which a right-eye image and a left-eye image are alternately arranged in dot units is often used as a basic image to be stereoscopically displayed.
【0026】視差画像が右目画像と左目画像の2枚のみ
からなる場合、すなわち水平視点数が「2」の場合、マ
ルチプレクス画像は右目画像と左目画像をドット単位で
ストライプ状に配すれば足りる。しかし、視点数が
「4」で、4枚の視差画像をもちいて水平方向の視点移
動を考慮した立体画像を表示する場合、図1に示すごと
く、画面10の前におかれたパララックスバリア12に
より、第1〜第4の視点VP1〜4からそれぞれ対応す
る視差画像のドットのみが見える。画面10では、第1
の視点VP1に対応する第1の視差画像のドットに
「1」を付して示しており、以下の視点でも同様であ
る。この例では、第1〜第4の視差画像がドット単位で
順にストライプ状に配され、マルチプレクス画像が形成
される。When the parallax image is composed of only two images, the right-eye image and the left-eye image, that is, when the number of horizontal viewpoints is "2", it suffices to arrange the right-eye image and the left-eye image in stripes for the multiplex image. . However, when the number of viewpoints is “4” and a stereoscopic image considering horizontal viewpoint movement is displayed using four parallax images, a parallax barrier placed in front of the screen 10 as shown in FIG. 12, only the dots of the corresponding parallax images can be seen from the first to fourth viewpoints VP1 to VP4. On screen 10, the first
The dot of the first parallax image corresponding to the viewpoint VP1 is indicated by adding “1”, and the same applies to the following viewpoints. In this example, the first to fourth parallax images are sequentially arranged in stripes in dot units, and a multiplex image is formed.
【0027】さらに、垂直方向にも視点移動を考えたと
き、パララックスバリア12はストライプ状ではなくマ
トリクス状に並ぶピンホールになり、マルチプレクス画
像もドット単位で入れ替わるマトリクス状になる。図2
は、水平視点数、垂直視点数ともに「4」の場合のマル
チプレクス画像20の例を示す。ここで、(i,j)と
表記される領域は、それぞれ水平方向の第i視点、かつ
垂直方向の第j視点から見えるべきドットを示す。同図
のごとく、水平方向には、iが1、2、3、4、1、・
・・とサイクリックに変化し、同様に垂直方向には、j
が1、2、3、4、1、・・・とサイクリックに変化す
る。Further, when the viewpoint movement is considered in the vertical direction, the parallax barrier 12 does not form a stripe shape but a pinhole arranged in a matrix form, and the multiplex image also becomes a matrix form in which dots are interchanged. Figure 2
Shows an example of the multiplex image 20 when both the number of horizontal viewpoints and the number of vertical viewpoints are “4”. Here, the areas denoted by (i, j) indicate dots that should be seen from the i-th viewpoint in the horizontal direction and the j-th viewpoint in the vertical direction, respectively. In the horizontal direction, i is 1, 2, 3, 4, 1, ...
.. changes cyclically, and similarly in the vertical direction, j
Cyclically change to 1, 2, 3, 4, 1, ...
【0028】立体画像の利用促進を考えた場合、図2に
示すマルチプレクス画像20を必要な端末に送信すれば
よい。マルチプレクス画像20であれば、すでに立体視
するための最終形式になっているため、端末側ではそれ
を単に表示すれば済む。もちろんこのとき、立体視のた
めにパララックスバリア等の光学フィルタの存在を仮定
している。Considering promotion of use of stereoscopic images, the multiplex image 20 shown in FIG. 2 may be transmitted to a required terminal. Since the multiplex image 20 is already in the final format for stereoscopic viewing, the terminal side only has to display it. Of course, at this time, it is assumed that an optical filter such as a parallax barrier is present for stereoscopic viewing.
【0029】しかし本発明者は、ここでひとつ問題が生
ずることを認識した。すなわち、送信に際して、当然な
がら画像データを圧縮すべきであるが、マルチプレクス
画像20の場合、JPEG(Joint Photographic Exper
t Group)を代表とする通常の非可逆圧縮が事実上利用
できないことである。なぜなら、マルチプレクスされた
複数の視差画像は、それぞれ違う視点の画像であるか
ら、画素レベルで考えるとそれらは本質的に無関係であ
り、JPEG等の空間周波数に依拠する手法で圧縮する
と、せっかく各視点からの独立した視差画像を利用した
にも拘わらず、それらの画像間で高周波成分がそぎ落と
され、結果的に正しい立体表示ができなくなる。とく
に、独立した画像を画素単位で交互に並べたとき、非常
に細かい高周波成分が多数生じるから、この問題は場合
により致命的である。ネットワークの帯域が広がってい
るとはいえ、通常の画像は問題なく圧縮できるときに、
立体画像のための基礎画像だけは圧縮できないとなれ
ば、普及の足かせとなる。However, the present inventor has recognized that one problem arises here. That is, image data should of course be compressed at the time of transmission, but in the case of the multiplexed image 20, JPEG (Joint Photographic Exper
The usual lossy compression represented by t Group) is virtually unavailable. Because multiple parallax images that have been multiplexed are images with different viewpoints, they are essentially irrelevant at the pixel level, and when compressed by a method that relies on spatial frequencies such as JPEG, each Despite the use of parallax images independent from the viewpoint, high-frequency components are cut off between those images, and as a result, correct stereoscopic display cannot be performed. Especially, when the independent images are alternately arranged on a pixel-by-pixel basis, a large number of very fine high-frequency components are generated, and this problem is sometimes fatal. Even though the bandwidth of the network is expanding, when normal images can be compressed without problems,
If only basic images for stereoscopic images cannot be compressed, it will be a hindrance to widespread use.
【0030】そこで、送信や保存の場合で圧縮可能な形
式として、サイドバイサイド画像の利用度が高くなるこ
とが考えられる。図3は水平、垂直とも4つの視点をも
つサイドバイサイド画像30を示す。ここで、(i,
j)と表記される領域は、それぞれ水平方向の第i視
点、かつ垂直方向の第j視点から見えるべき一枚の視差
画像を示す。すなわちサイドバイサイド画像30は、視
差画像を水平または垂直の一方向か両方向に並置する形
で合成したものであり、各視差画像は、それをサイドバ
イサイド画像30から切り取れば、一枚の画像として機
能する。Therefore, it is conceivable that the side-by-side image is highly used as a compressible format for transmission and storage. FIG. 3 shows a side-by-side image 30 having four viewpoints both horizontally and vertically. Where (i,
The area denoted by j) indicates one parallax image that should be seen from the i-th viewpoint in the horizontal direction and the j-th viewpoint in the vertical direction. That is, the side-by-side image 30 is a combination of parallax images arranged side by side in one direction or both in the horizontal direction or the vertical direction, and each parallax image functions as one image when cut from the side-by-side image 30.
【0031】ただし、各視差画像は4×4=16の視点
のひとつのみに対応すればよいため、立体画像として表
示すべき画像サイズの1/16のサイズでよく、通常は
立体画像と同じサイズのオリジナルの画像から、水平方
向と垂直方向のそれぞれについて、4ドットおきに1ド
ットを選んで生成される。わかりやすい例でいえば、視
点数が「2」の右目画像と左目画像だけからなるマルチ
プレクス画像の場合、右目からは奇数列のドットのみが
見えればよく、左目からは偶数列のドットのみが見えれ
ばよい。したがって、右目画像は予めオリジナルの画像
から奇数列だけを取り出して水平方向に1/2に間引か
れたものであればよく、左目画像も同様に偶数列だけを
取り出せばよい。一般に視点の数が「n」なら、サイド
バイサイド画像を構成する各視差画像はオリジナルの画
像サイズの1/nでよく、すべての視差画像をタイルの
ように並置すればちょうどオリジナルの画像サイズに戻
る。However, since each parallax image needs to correspond to only one of 4 × 4 = 16 viewpoints, the parallax image may have a size of 1/16 of the image size to be displayed as a stereoscopic image, and is usually the same size as the stereoscopic image. From the original image of 1), 1 dot is selected every 4 dots in each of the horizontal direction and the vertical direction. As an easy-to-understand example, in the case of a multiplex image consisting of right-eye images and left-eye images with a viewpoint number of "2", only the odd-numbered rows of dots need to be visible from the right eye, and only the even-numbered rows of dots can be seen from the left eye. Good. Therefore, the right-eye image only needs to be obtained by extracting only odd-numbered columns from the original image in advance and decimating it to 1/2 in the horizontal direction, and similarly for the left-eye image, only even-numbered columns may be extracted. In general, if the number of viewpoints is “n”, each parallax image forming the side-by-side image may be 1 / n of the original image size, and if all parallax images are juxtaposed like tiles, they will return to the original image size.
【0032】サイドバイサイド画像30の場合、各視差
画像がその境界を除いて独立しているため、非可逆圧縮
をしても、悪影響はせいぜい境界部分にしか生じない。
そのため、通常はサイドバイサイド30をJPEG等に
よって圧縮し、ネットワークを介して容易に送信した
り、小さなストレージでも多数保存できるようになる。
このように、サイドバイサイド画像30は普及面で好適
であるが、逆に欠点もあり、それは特別なビュアを要す
る点である。すなわち、いずれの表示装置でも、最終的
にはマルチプレクス画像に変換しないと立体表示ができ
ず、サイドバイサイド画像30からマルチプレクス画像
への変換処理が必要になる。In the case of the side-by-side image 30, since each parallax image is independent except for its boundary, even if the lossy compression is performed, the adverse effect occurs only at the boundary portion.
Therefore, normally, the side-by-side 30 is compressed by JPEG or the like so that it can be easily transmitted through the network or can be stored in a large number in a small storage.
As described above, the side-by-side image 30 is suitable for widespread use, but on the contrary, it has a defect that a special viewer is required. That is, in any of the display devices, stereoscopic display cannot be performed unless it is finally converted into a multiplex image, and conversion processing from the side-by-side image 30 into a multiplex image is required.
【0033】以上の一長一短を有するふたつの形式に加
え、普及面、とくに画像の準備の観点から第3の形式と
してセパレート画像が考えられる。セパレート画像は、
集合体として立体画像を形成できるが、単独では通常の
二次元画像に過ぎない。図4は16枚のセパレート画像
と立体画像との関係を示す。16枚のうち、例えば「視
点(4,2)の画像」と表記されたセパレート画像32
は、視点(4,2)を想定したもので、その画像サイズ
はオリジナルの画像と同じである。したがって、16枚
のセパレート画像は、それぞれユーザが移動しながら撮
影したカメラ画像と考えればわかりやすい。In addition to the above two formats having advantages and disadvantages, a separate image is considered as a third format from the viewpoint of popularization, particularly from the viewpoint of image preparation. The separate image is
Although a stereoscopic image can be formed as an aggregate, it is only a normal two-dimensional image by itself. FIG. 4 shows the relationship between 16 separate images and a stereoscopic image. Of the 16 images, for example, a separate image 32 described as “image of viewpoint (4, 2)”
Is based on the viewpoint (4, 2), and its image size is the same as the original image. Therefore, the 16 separate images can be easily understood by considering them as camera images taken by the user while moving.
【0034】このように、セパレート画像はそのサイズ
が撮影時のままでよいため、間引きや合成といった処理
を必要とせず、準備は楽である。また、それぞれの画像
はオリジナルの状態で残るため、単独で別途利用でき
る。しかし、立体表示の場合、全体で16枚の視差画像
を要するため、伝送や保存の面では不利であり、また、
やはり特別なビュアが必要になる。As described above, since the size of the separate image may be the same as that at the time of photographing, it is easy to prepare without requiring the processing such as thinning and composition. Also, since each image remains in its original state, it can be used separately by itself. However, in the case of stereoscopic display, a total of 16 parallax images are required, which is disadvantageous in terms of transmission and storage.
After all, a special viewer is needed.
【0035】以上が立体画像の普及にあたって考えられ
る主要な3形式である。これらの変形は最後に述べると
して、以下、基礎画像がこれらの3形式のいずれかで表
現されているとき、普及促進および立体表示を技術的に
実現するための立体画像処理方法を説明する。以下、簡
単のために水平視点数が「2」、垂直視点数が「1」の
場合を例示する。The above are the three major formats that can be considered for the spread of stereoscopic images. These modifications will be described last, and a stereoscopic image processing method for technically realizing widespread promotion and stereoscopic display when the basic image is represented in any of these three formats will be described below. Hereinafter, for simplicity, a case where the number of horizontal viewpoints is “2” and the number of vertical viewpoints is “1” will be exemplified.
【0036】図5、図6、図7はそれぞれ、本実施の形
態に係る基礎画像のうち、サイドバイサイド画像40、
マルチプレクス画像50、2枚でセットのセパレート画
像60、62のデータ構造を模式的に示す。5, 6, and 7 are side-by-side images 40 and 40 among the basic images according to the present embodiment, respectively.
The data structure of the multiplex image 50 and the separate image 60, 62 of a set of 2 sheets is shown typically.
【0037】図5に示すごとく、サイドバイサイド画像
40は、左目画像である第1視差画像44と、右目画像
である第2視差画像46を水平に合成したもので、その
画像データに後述するヘッダ領域42が付加されてい
る。同様に図6のマルチプレクス画像50にも同じフォ
ーマットにしたがうヘッダ領域42が付加されている。
図7のふたつのセパレート画像60、62には、それぞ
れヘッダ領域42が付加されている。いずれの場合も、
このデータ構造は、立体画像を表示するための基礎画像
である主データと、その立体画像を表示するための一連
の処理における所定の場面にて参照すべき情報を保持す
る副データとの組合せと考えることができる。なお、こ
の主データが基礎画像を所定の手法にて圧縮したもので
ある場合、副データはその圧縮手法において規定される
ヘッダ領域に格納されてもよい。ヘッダ領域の規定がす
でに存在する場合、その領域のうち例えばユーザ定義領
域を利用することができる。As shown in FIG. 5, the side-by-side image 40 is a horizontally synthesized image of the first parallax image 44, which is the left-eye image, and the second parallax image 46, which is the right-eye image. 42 is added. Similarly, a header area 42 according to the same format is added to the multiplex image 50 of FIG.
A header area 42 is added to each of the two separate images 60 and 62 in FIG. 7. In either case,
This data structure is a combination of main data that is a basic image for displaying a stereoscopic image and sub data that holds information to be referred to in a predetermined scene in a series of processing for displaying the stereoscopic image. I can think. When the main data is obtained by compressing the basic image by a predetermined method, the sub data may be stored in the header area defined by the compression method. When the definition of the header area already exists, for example, a user-defined area can be used among the areas.
【0038】図8はヘッダ領域42の詳細構成を模式的
に示す。同図において、各領域は以下の立体情報を保持
する。
(1)DIM領域70: 3ビットで基礎画像の次元お
よび構成の態様を示す。
000: セパレート画像または立体視できない二次元
画像全般
001: 三次元画像のうちマルチプレクス画像
010: 三次元画像のうちサイドバイサイド画像
011: リザーブ
1xx: リザーブ
リザーブされる形式の例として、サイドバイサイド画像
のように複数の視差画像を並置しながら、ただしそれら
の視差画像を一切間引かないオリジナル画像のまま並置
する「ジョイント画像」や、偶数フィールドと奇数フィ
ールドで視差画像を時分割で交互に表示すべき視差画像
であることを示す「フィールドシーケンシャル画像」な
どが考えられる。「ジョイント画像」は平行法や交差法
で観察されることが多いが、ビュアで間引きしてサイド
バイサイド画像に変換したり、直接マルチプレクス画像
へ変換することもできるため、ひとつのフォーマットと
して有効である。FIG. 8 schematically shows the detailed structure of the header area 42. In the figure, each area holds the following stereoscopic information. (1) DIM area 70: 3 bits indicate the dimension and structure of the basic image. 000: Separate image or general two-dimensional image that cannot be stereoscopically viewed 001: Multiplex image of three-dimensional image 010: Side-by-side image of three-dimensional image 011: Reserve 1xx: As an example of a format that is reserved, like a side-by-side image A "joint image" in which multiple parallax images are juxtaposed, but the parallax images are juxtaposed without changing the original images, or a parallax image in which even-numbered fields and odd-numbered fields should be displayed alternately in time division. A "field sequential image" indicating that The "joint image" is often observed by the parallel method or the cross method, but it is effective as one format because it can be thinned out by the viewer and converted into a side-by-side image, or can be directly converted into a multiplex image. .
【0039】(2)BDL領域72: 1ビットでサイ
ドバイサイド画像の境界処理の有無を示す。DIMが
「01x」のときに意味をもつ。
0: 境界処理なし
1: 境界処理あり
前述ごとく、サイドバイサイド画像を非可逆圧縮すると
き、その境界部分で画像が悪影響を受ける。これを軽減
するために、次項で示す処理がなされているか否かを示
す。(2) BDL area 72: 1 bit indicates presence / absence of boundary processing of the side-by-side image. It has a meaning when DIM is "01x". 0: No boundary processing 1: With boundary processing As described above, when the side-by-side image is lossy compressed, the image is adversely affected at the boundary portion. In order to reduce this, it indicates whether or not the processing shown in the next section is performed.
【0040】(3)HDL領域74: 2ビットでサイ
ドバイサイド画像の境界処理の内容を示す。BDLが
「1」のときに意味をもつ。
00: 白枠を入れる
01: 黒枠を入れる
10: 端の画素をコピーして入れる
11: リザーブ
圧縮による悪影響を低減するため、境界部分に白枠、黒
枠等を入れて複数の視差画像の混じりを減らす。端の画
素のコピーも同様の効果がある。(3) HDL area 74: The content of the boundary processing of the side-by-side image is indicated by 2 bits. It has meaning when BDL is "1". 00: Insert white frame 01: Insert black frame 10: Copy edge pixels and insert 11: In order to reduce the adverse effect of reserve compression, insert white frame, black frame, etc. at the boundary to mix multiple parallax images. cut back. Copying the edge pixels has the same effect.
【0041】(4)WDT領域76: 2ビットでサイ
ドバイサイド画像の境界処理の画素数を指定する。BD
Lが「1」のとき意味をもつ。
00〜11: 画素数
(5)VPH領域78: 8ビットで立体画像に想定さ
れた水平視点数を示す。基礎画像の作成時に手動で記述
してもよいし、基礎画像を生成するソフトウエアが自動
生成してもよい。
00000000: 不明またはリザーブ
00000001〜11111111: 水平視点数
(6)VPV領域80: 8ビットで立体画像に想定さ
れた垂直視点数を示す。
00000000: 不明またはリザーブ
00000001〜11111111: 垂直視点数
なお、VPHとVPVがともに00000001のと
き、基礎画像は立体視のできない通常の二次元画像と判
断してもよい。(4) WDT area 76: 2 bits specify the number of pixels for boundary processing of the side-by-side image. BD
It has a meaning when L is "1". 00-11: Number of pixels (5) VPH area 78: Indicates the number of horizontal viewpoints assumed for a stereoscopic image in 8 bits. It may be manually described when the basic image is created, or may be automatically created by software that creates the basic image. 000000: Unknown or reserve 00000001 to 11111111: Number of horizontal viewpoints (6) VPV area 80: Indicates the number of vertical viewpoints assumed for a stereoscopic image in 8 bits. 00000000: Unknown or reserve 00000001 to 11111111: Number of vertical viewpoints When VPH and VPV are both 00000001, the basic image may be determined as a normal two-dimensional image that cannot be stereoscopically viewed.
【0042】(7)ODH領域82: 1ビットで複数
の視差画像の水平方向の並びを示す。
0: 撮影時のカメラの並びと同じ
1: 撮影時のカメラの並びと逆
つまり、ODHが「0」のとき、撮影時いちばん左側の
カメラで撮影された視差画像がそのまま基礎画像におい
てもいちばん左側に記録されており、以降順に記録され
ている。通常並びがランダムということは考えにくいた
め、2種類の規定でよい。(7) ODH area 82: 1 bit indicates the arrangement of a plurality of parallax images in the horizontal direction. 0: Same as camera arrangement at the time of shooting 1: Opposite to camera arrangement at the time of shooting In other words, when ODH is "0", the parallax image taken by the leftmost camera at the time of shooting is the leftmost even in the basic image. It has been recorded in, and has been recorded in order thereafter. Normally, it is difficult to think that the arrangement is random, so two types of rules are sufficient.
【0043】(8)ODV領域84: 1ビットで複数
の視差画像の垂直方向の並びを示す。
0: 撮影時のカメラの並びと同じ
1: 撮影時のカメラの並びと逆
なお、前述の視点数に関するVPHとVPVがともに8
ビットであり、通常は十分すぎると考えられるため、こ
れらの最上位ビットをそれぞれODH、ODVに割り当
ててもよい。(8) ODV area 84: 1 bit indicates the arrangement of a plurality of parallax images in the vertical direction. 0: Same as the arrangement of cameras at the time of shooting 1: Reverse of the arrangement of cameras at the time of shooting Note that both VPH and VPV related to the number of viewpoints described above are 8
These most significant bits may be assigned to ODH and ODV, respectively, as they are bits and are usually considered to be more than sufficient.
【0044】(9)PSH領域86: 8ビットで各セ
パレート画像が水平方向において何番目の視点位置の画
像であるかを示す。DIMが「000」のときに意味が
ある。
00000000: 不明またはリザーブ
00000001〜11111111: 水平方向の位
置
なお、各セパレート画像上に決められた原点、例えば画
像の左上角の点の座標のような絶対値を別途ヘッダ領域
42に盛り込んでもよく、その場合、処理の高速化につ
ながる。(9) PSH area 86: 8 bits indicate which viewpoint position each separate image is in the horizontal direction. It has meaning when DIM is “000”. 00000000: Unknown or reserve 00000001 to 11111111: Horizontal position Note that the origin determined on each separate image, for example, an absolute value such as the coordinates of the point at the upper left corner of the image may be separately included in the header area 42. In that case, it leads to speeding up of processing.
【0045】(10)PSV領域88: 8ビットで各
セパレート画像が垂直方向において何番目の視点位置の
画像であるかを示す。
00000000: 不明またはリザーブ
00000001〜11111111: 垂直方向の位
置
例えば図4で「視点(4,2)の画像」と表記されたセ
パレード画像は、PSH=4、PSV=2という記述に
なる。(10) PSV area 88: 8 bits indicating the position of the viewpoint of each separate image in the vertical direction. 00000000: Unknown or reserve 00000001 to 11111111: Vertical position, for example, a separate image described as “image of viewpoint (4, 2)” in FIG. 4 has a description of PSH = 4 and PSV = 2.
【0046】以上がヘッダ領域42の一例である。この
領域を利用して立体画像の流通を実現するための装置を
説明する。図9はこの領域を生成する画像処理装置10
0の構成を示す。この装置100は、立体画像を表示す
るための基礎画像を取得する画像取得部102と、取得
された基礎画像に、立体画像を表示するための一連の処
理における所定の場面、例えば後に表示側の装置にてマ
ルチプレクス画像を生成する場面において参照すべき立
体情報を付加する情報付加部104とを含む。この構成
は、ハードウエア的には、任意のコンピュータのCP
U、メモリ、その他のLSIで実現でき、ソフトウエア
的にはメモリのロードされた基礎画像生成機能および立
体情報付加機能のあるプログラムなどによって実現され
るが、ここではそれらの連携によって実現される機能ブ
ロックを描いている。したがって、これらの機能ブロッ
クがハードウエアのみ、ソフトウエアのみ、またはそれ
らの組合せによっていろいろな形で実現できることは、
当業者には理解されるところである。したがって、以
下、構成の名称を明示的に示さないものは、例えばCP
Uを中心とする制御部によってなされると考えてよい。The above is an example of the header area 42. An apparatus for realizing the distribution of a stereoscopic image using this area will be described. FIG. 9 shows an image processing apparatus 10 for generating this area.
The structure of 0 is shown. This device 100 includes an image acquisition unit 102 that acquires a basic image for displaying a stereoscopic image, and a predetermined scene in a series of processes for displaying a stereoscopic image on the acquired basic image, for example, on the display side later. An information adding unit 104 for adding stereoscopic information to be referred to when a multiplex image is generated by the apparatus. In terms of hardware, this configuration is the CP of any computer.
U, memory, and other LSIs can be realized, and in terms of software, it is realized by a program having a memory-loaded basic image generation function and a stereoscopic information addition function. I'm drawing a block. Therefore, these functional blocks can be realized in various forms by only hardware, only software, or a combination thereof.
It will be understood by those skilled in the art. Therefore, in the following, if the name of the configuration is not explicitly shown, for example, CP
It may be considered to be performed by a control unit centered on U.
【0047】画像取得部102は、ネットワークやユー
ザのデジタルカメラなどの画像ソースからオリジナル画
像を入力し、これをそのまま基礎画像とするか、または
加工して基礎画像を生成する。例えばセパレート画像が
必要な場合、単にオリジナル画像をそのまま基礎画像と
すればよい。一方、サイドバイサイド画像が必要な場
合、オリジナル画像を複数並置して合成する。マルチプ
レクス画像が必要な場合、各視点からの視差画像をスト
ライプ状やマトリクス状に再構成する。The image acquisition unit 102 inputs an original image from an image source such as a network or a user's digital camera, and uses the original image as it is, or processes it to generate a basic image. For example, when a separate image is required, the original image may be used as the basic image as it is. On the other hand, when side-by-side images are required, a plurality of original images are juxtaposed and combined. When a multiplex image is required, the parallax image from each viewpoint is reconstructed in a stripe shape or a matrix shape.
【0048】画像取得部102はさらに、得られた基礎
画像を必要に応じて圧縮する。それに先立ち、圧縮によ
って立体画像の画質に影響が出るか否かを判定し、出る
と判定したときは圧縮を禁止してもよい。例えばマルチ
プレクス画像を空間周波数成分に関して圧縮する場合、
圧縮を禁止したり、これを一旦サイドバイサイド画像へ
変換した後圧縮してもよい。The image acquisition unit 102 further compresses the obtained basic image as needed. Prior to that, it is determined whether or not the image quality of the stereoscopic image is affected by the compression, and if it is determined that the image quality is output, the compression may be prohibited. For example, when compressing a multiplexed image in terms of spatial frequency components,
The compression may be prohibited, or the image may be once converted into a side-by-side image and then compressed.
【0049】情報付加部104は、そうして得られた基
礎画像に前述のヘッダ情報を付加し、その結果得られた
立体表示のための画像データを図示しない記憶装置へ記
録したり、ネットワーク経由で所定の個所へ配信する。
以上、この装置100によれば、立体表示を望む者のた
めに、予め立体情報の付いた基礎画像を準備することが
できる。The information adding unit 104 adds the above-mentioned header information to the basic image thus obtained, and records the resulting image data for stereoscopic display in a storage device (not shown) or via a network. Deliver to a specified location with.
As described above, according to this device 100, a basic image with stereoscopic information can be prepared in advance for a person who desires stereoscopic display.
【0050】なお、画像取得部102は、必ずしもオリ
ジナル画像を最初に入手するとは限らない。すでにマル
チプレクス画像になっているものをネットワーク等から
入力し、その立体情報を検出し、それがマルチプレクス
画像であることを判定し、そのままの状態では圧縮の不
向きであることを認識し、これをサイドバイサイド画像
に変換した後圧縮し、立体情報を書き換えるといった処
理も可能である。その場合、この装置100は立体画像
流通の中継点として利用することもできる。The image acquisition unit 102 does not always obtain the original image first. By inputting what is already a multiplex image from a network, etc., detecting the stereoscopic information, determining that it is a multiplex image, recognizing that it is not suitable for compression in that state, It is also possible to convert the image into a side-by-side image, compress it, and rewrite stereoscopic information. In this case, the device 100 can also be used as a relay point for the distribution of stereoscopic images.
【0051】一方、図10は、実際に立体表示を行う復
号側の画像処理装置200の構成を示す。この装置20
0は、立体画像を表示するための基礎画像を取得する画
像取得部202と、取得された基礎画像に付加された、
立体画像を表示するための一連の処理における所定の場
面にて参照すべき立体情報を検出する情報検出部204
とを含む。この装置200は典型的にはユーザ側の端末
であり、画像取得部202は、すでに立体情報が付加さ
れた基礎画像を取得する。画像取得部202は、予め圧
縮されていた画像データを入力したとき、これを伸張す
ることによって基礎画像を生成または再生してもよい。On the other hand, FIG. 10 shows the configuration of the image processing apparatus 200 on the decoding side that actually performs stereoscopic display. This device 20
0 is an image acquisition unit 202 that acquires a basic image for displaying a stereoscopic image, and is added to the acquired basic image.
Information detecting unit 204 for detecting stereoscopic information to be referred to in a predetermined scene in a series of processing for displaying a stereoscopic image
Including and This device 200 is typically a terminal on the user side, and the image acquisition unit 202 acquires a basic image to which stereoscopic information has already been added. When the image data that has been compressed in advance is input, the image acquisition unit 202 may decompress the image data to generate or reproduce the basic image.
【0052】つづいて、情報検出部204がその基礎画
像に付加されたヘッダ領域をパースし、立体情報を検出
する。検出した立体情報から、この基礎画像がマルチプ
レクス画像でないことが判明すれば、この装置200は
この基礎画像をマルチプレクス画像へ変換し、立体画像
を表示する。この装置200はそのオプショナルな機能
として、検出された立体情報のうちとくに水平視点数と
垂直視点数をもとに、前述の輝度に関する考察にしたが
い、この装置200の表示画面(図示せず)の輝度を高
めてもよい。Subsequently, the information detecting unit 204 parses the header area added to the basic image and detects the stereoscopic information. If it is determined from the detected stereoscopic information that the basic image is not a multiplex image, the device 200 converts the basic image into a multiplex image and displays the stereoscopic image. As an optional function of the device 200, according to the above-described consideration regarding the brightness based on the number of horizontal viewpoints and the number of vertical viewpoints of the detected stereoscopic information, the display screen (not shown) of the device 200 is displayed. The brightness may be increased.
【0053】この装置200は、単に立体画像の表示だ
けでなく、当然ながら基礎画像を保存、編集することも
できる。保存の際、基礎画像がマルチプレクス画像であ
ればこれをサイドバイサイド画像その他へ変換し、立体
情報を書き換えたうえで保存してもよい。編集の際、例
えば画像を拡大縮小したいことがある。そのとき、マル
チプレクス画像であると処理は煩雑であるから、これを
いったんサイドバイサイド画像へ変換し、しかる後に所
定の画像処理を施し、最後にマルチプレクス画像へ戻し
て表示してもよい。This device 200 can not only display a stereoscopic image, but can of course store and edit a basic image. When saving, if the basic image is a multiplex image, it may be converted into a side-by-side image or the like, and the stereoscopic information may be rewritten and then saved. At the time of editing, for example, it is sometimes desired to enlarge or reduce the image. At that time, since the processing is complicated for a multiplex image, the processing may be once converted into a side-by-side image, then subjected to predetermined image processing, and finally returned to the multiplex image for display.
【0054】なおこの装置200は、こうした編集その
他の画像処理の便宜を図るべく、マルチプレクス画像以
外の形式の画像、とくにサイドバイサイド画像を常時メ
モリその他の記憶装置に保持しておき、必要に応じて適
宜これを読み出して利用すればよい。In order to facilitate such editing and other image processing, the apparatus 200 always stores images in formats other than multiplex images, especially side-by-side images, in a memory or other storage device, and if necessary, stores them. It may be read out and used as appropriate.
【0055】この装置200の付加的な構成として、表
示装置のもつ視点数や最適観察距離などの特性をデータ
として取得する特性取得部を設ければ、さらに利便性が
増す。例えば基礎画像の想定視点数と表示装置のそれと
が異なる場合、前記の特性をもとに基礎画像から表示す
べき視差画像を自動的に選択する表示画像選択部を設け
ることができる。基礎画像の想定視点数が「4」で、表
示装置のそれが「2」であれば、4つの視差画像からふ
たつを選択する。これらふたつの視差画像は連続する視
点のものである必要はなく、立体感を強調するには、む
しろ視点を飛ばした2画像を選択してもよい。基礎画像
の視点数が「2」で表示装置のそれが「4」であれば、
同じ視差画像を2回づつ表示することで画面正面に立体
視が可能な領域を確保できる。As an additional configuration of the device 200, if a characteristic acquisition unit for acquiring characteristics such as the number of viewpoints and the optimum observation distance of the display device as data is provided, the convenience is further enhanced. For example, when the assumed number of viewpoints of the basic image is different from that of the display device, it is possible to provide a display image selection unit that automatically selects a parallax image to be displayed from the basic image based on the above characteristics. If the assumed number of viewpoints of the basic image is “4” and that of the display device is “2”, two of the four parallax images are selected. These two parallax images do not have to be from continuous viewpoints, and two images from different viewpoints may be selected to enhance the stereoscopic effect. If the number of viewpoints of the basic image is “2” and that of the display device is “4”,
By displaying the same parallax image twice, it is possible to secure a stereoscopic viewable area in front of the screen.
【0056】さらにこの画像処理装置200が、表示画
面を見る観察者の頭部位置を検出する位置検出部を備え
ていれば、表示画像選択部は、頭部位置に合わせて選択
すべき視差画像を変化させ、観察者に回りこんだ画像を
見せることもできる。Further, if the image processing apparatus 200 is provided with a position detecting section for detecting the head position of the observer looking at the display screen, the display image selecting section will select the parallax image to be selected according to the head position. Can also be changed to show the circling image to the observer.
【0057】また、光学フィルタが取り替え可能な場
合、例えばこの装置200の表示部に、光学フィルタに
パターン印刷された視点数などの情報を含む表示を光学
的に読み取る読取部を設けてもよい。読み取られたデー
タが、視差画像の視点数との不一致を示唆するとき、上
述のように視差画像を適宜最適選択および表示してもよ
いし、光学フィルタの取り替えを促す表示を行ってもよ
い。When the optical filter is replaceable, for example, the display section of the apparatus 200 may be provided with a reading section for optically reading a display including information such as the number of viewpoints pattern-printed on the optical filter. When the read data suggests a disagreement with the number of viewpoints of the parallax image, the parallax image may be appropriately optimally selected and displayed as described above, or a display prompting replacement of the optical filter may be performed.
【0058】図11は、立体画像流通のためのネットワ
ークシステム300の構成を示す。ここで合成装置30
2は図9の画像処理装置100であり、流通の起点とし
て作用する。一方、表示装置304は図10の画像処理
装置200であり、流通の終点として作用する。同図の
ごとく、合成装置302が基礎画像を多数記録する記憶
装置306をもち、画像サーバとして振る舞うことによ
り、ユーザは所望の立体画像をインターネットその他の
ネットワーク308を介して容易に取得することができ
る。FIG. 11 shows the configuration of a network system 300 for distributing a stereoscopic image. Here, the synthesizer 30
Reference numeral 2 denotes the image processing apparatus 100 in FIG. 9, which acts as a starting point of distribution. On the other hand, the display device 304 is the image processing device 200 of FIG. 10 and acts as the end point of distribution. As shown in the figure, the synthesizing device 302 has a storage device 306 for recording a large number of basic images and acts as an image server, so that the user can easily obtain a desired stereoscopic image via the Internet or other network 308. .
【0059】以上、本発明を実施の形態をもとに説明し
た。これらの実施の形態は例示であり、それらの各構成
要素や各処理プロセスの組合せにいろいろな変形例が可
能なこと、またそうした変形例も本発明の範囲にあるこ
とは当業者に理解されるところである。以下、そうした
例をいくつか挙げる。The present invention has been described above based on the embodiments. It is understood by those skilled in the art that these embodiments are mere examples, and that various modifications can be made to the combinations of the respective constituent elements and the respective processing processes, and such modifications are also within the scope of the present invention. By the way. Here are some examples.
【0060】図9や図10の画像処理装置100、20
0の機能はそれぞれコンピュータプログラムの形でユー
ザへ提供することができる。ユーザが基礎画像を自ら生
成したい場合、図9の画像処理装置100の機能をオー
サリングツールとして整えたうえでユーザへ提供すれば
よい。The image processing apparatuses 100 and 20 shown in FIG. 9 and FIG.
Each of the 0 functions can be provided to the user in the form of a computer program. When the user wants to generate the basic image by himself, the function of the image processing apparatus 100 in FIG. 9 may be prepared as an authoring tool and then provided to the user.
【0061】図8で示したヘッダ領域42の構成はビッ
ト数も含め、当然自由度が大きい。例えば、
・立体画像としてユーザから観察される基礎画像の著作
権情報
・基礎画像を見るのにふさわしいパララックスバリアや
レンチキュラーレンズなどの光学フィルタが満たすべき
条件
などをさらに組み込むことができる。「光学フィルタが
満たすべき条件」の例として、視差画像の視点間距離、
すなわち眼間距離や撮影時のカメラの画角などがある。
こうした条件は、立体画像を前後方向に正しいスケール
で再生したい場合の光学フィルタの設計には必須のパラ
メータである。また、前述の基礎画像の視点数が表示装
置の視点数より多い場合の画像の選択においても、より
自然な立体感が得られる画像を自動的に選択するために
参照することができる。The structure of the header area 42 shown in FIG. 8 naturally has a high degree of freedom including the number of bits. For example, copyright information of a basic image observed by a user as a stereoscopic image, conditions to be satisfied by an optical filter such as a parallax barrier or a lenticular lens suitable for viewing the basic image can be further incorporated. As an example of “conditions that the optical filter should satisfy”, the distance between viewpoints of the parallax image,
That is, there are the distance between the eyes and the angle of view of the camera at the time of shooting.
Such a condition is an essential parameter for designing an optical filter when reproducing a stereoscopic image on the correct scale in the front-back direction. Further, even in the case of selecting an image when the number of viewpoints of the basic image is larger than the number of viewpoints of the display device, it is possible to refer to automatically select an image that gives a more natural stereoscopic effect.
【0062】実施の形態では最終的に表示する立体画像
をマルチプレクス画像としたが、表示すべき画像は観察
方法により変わる。したがって、さまざまな画像が観察
方法に適合した画像に変換処理されて表示されてもよ
い。例えば液晶シャッタメガネを用いる場合、表示すべ
き画像はフィールドシーケンシャル画像である。また、
ヘッドマウントディスプレイで、左右の目に対応して別
々の表示手段をもつタイプのものでは、表示する立体画
像はセパレート画像となり、別々の画像出力手段により
それぞれの表示手段に送られる。表示装置がひとつのヘ
ッドマウントディスプレイで、サイドバイサイド画像を
表示することもできる。この場合、光学的な手段によ
り、画像が左半分と右半分に分離され、かつ、水平方向
に拡大されて観察されるように構成すればよい。さら
に、交差法、平行法といった観察方法では、ジョイント
画像を表示すればよい。In the embodiment, the stereoscopic image finally displayed is the multiplex image, but the image to be displayed changes depending on the observation method. Therefore, various images may be converted to images suitable for the observation method and displayed. For example, when liquid crystal shutter glasses are used, the image to be displayed is a field sequential image. Also,
In a head-mounted display of a type having separate display means corresponding to the left and right eyes, the stereoscopic image to be displayed is a separate image, which is sent to each display means by separate image output means. Side-by-side images can also be displayed on a head-mounted display with a single display device. In this case, the image may be divided into the left half and the right half by optical means, and may be enlarged in the horizontal direction for observation. Further, the joint image may be displayed by an observation method such as a crossing method or a parallel method.
【0063】実施の形態では、立体画像を表示する側の
装置、すなわち図10の画像処理装置200は、基礎画
像に立体情報が付加されている前提で処理を開始した。
しかし、仮に本実施の形態によらない既存の基礎画像が
あれば、これは実施の形態に特徴的なヘッダ領域を有さ
ないため、その基礎画像を検査する検査・推定処理部を
設け、画像処理装置200の側で立体情報を推定しても
よい。例えばサイドバイサイド画像であるか否かは、画
像を水平方向および垂直方向にそれぞれm等分およびn
等分し、それぞれの領域の画像の近似度をmとnの値を
変えながら評価してもよい。あるmとnの組について各
領域またはその一部の近似度が高ければ、これは水平視
点数m、垂直視点数nのサイドバイサイド画像と推定で
きる。近似度の評価は、例えば画素値の差分二乗和によ
る。このほかにも、基礎画像に微分フィルタを作用させ
てみて、領域の境界線が浮かび上がることも考えられ、
それによってサイドバイサイド画像であるか否かの推定
ができる場合もある。In the embodiment, the apparatus for displaying the stereoscopic image, that is, the image processing apparatus 200 in FIG. 10, starts the processing on the assumption that the stereoscopic information is added to the basic image.
However, if there is an existing basic image that is not according to the present embodiment, it does not have a header area that is characteristic of the present embodiment, so an inspection / estimation processing unit that inspects the basic image is provided, The stereoscopic information may be estimated on the side of the processing device 200. For example, whether or not the image is a side-by-side image is determined by dividing the image horizontally and vertically into m equal parts and n parts, respectively.
The image may be equally divided and the degree of approximation of the image in each region may be evaluated while changing the values of m and n. If the degree of approximation of each region or a part of the set of m and n is high, it can be estimated that this is a side-by-side image with m horizontal viewpoints and n vertical viewpoints. The evaluation of the degree of approximation is based on, for example, the sum of squared differences of pixel values. In addition to this, it is also possible to apply a differential filter to the basic image to make the boundary line of the region stand out,
It may be possible to estimate whether or not the image is a side-by-side image.
【0064】[0064]
【発明の効果】本発明によれば、立体画像の流通が促進
できる。According to the present invention, the distribution of stereoscopic images can be promoted.
【図1】 ユーザが水平方向にマルチプレクスされた4
枚の視差画像を立体視する状態を示す図である。FIG. 1: 4 users are multiplexed horizontally
It is a figure which shows the state which carries out the stereoscopic vision of the parallax image of 1 sheet.
【図2】 マルチプレクス画像を示す図である。FIG. 2 is a diagram showing a multiplex image.
【図3】 サイドバイサイド画像を示す図である。FIG. 3 is a diagram showing a side-by-side image.
【図4】 複数のセパレート画像の集合を示す図であ
る。FIG. 4 is a diagram showing a set of a plurality of separate images.
【図5】 実施の形態によるサイドバイサイド画像の構
成を模式的に示す図である。FIG. 5 is a diagram schematically showing a configuration of a side-by-side image according to the embodiment.
【図6】 実施の形態によるマルチプレクス画像の構成
を模式的に示す図である。FIG. 6 is a diagram schematically showing a configuration of a multiplexed image according to the embodiment.
【図7】 実施の形態によるセパレート画像の構成を模
式的に示す図である。FIG. 7 is a diagram schematically showing a configuration of a separate image according to the embodiment.
【図8】 実施の形態によって基礎画像に付加されたヘ
ッダ領域の構成図である。FIG. 8 is a configuration diagram of a header area added to a basic image according to the embodiment.
【図9】 実施の形態に係る、画像流通の起点となる画
像処理装置の構成図である。FIG. 9 is a configuration diagram of an image processing apparatus serving as a starting point of image distribution according to the embodiment.
【図10】 実施の形態に係る、画像流通の終点となる
画像処理装置の構成図である。FIG. 10 is a configuration diagram of an image processing apparatus serving as an end point of image distribution according to the embodiment.
【図11】 図9の画像処理装置を合成装置、図10の
画像処理装置を表示装置とする画像流通のためのネット
ワークシステムの構成を示す図である。11 is a diagram showing a configuration of a network system for image distribution in which the image processing apparatus of FIG. 9 is a synthesizing apparatus and the image processing apparatus of FIG. 10 is a display apparatus.
12 パララックスバリア、 20,40 マルチプレ
クス画像、 30,50 サイドバイサイド画像、 3
2,60,62 セパレート画像、 42 ヘッダ領
域、 100,200 画像処理装置、 102,20
2 画像取得部、104 情報付加部、 204 情報
検出部、 300 ネットワークシステム、 302
合成装置、 304 表示装置、 306 記憶装置。12 Parallax barrier, 20,40 multiplex image, 30,50 side-by-side image, 3
2, 60, 62 separate image, 42 header area, 100, 200 image processing device, 102, 20
2 image acquisition unit, 104 information addition unit, 204 information detection unit, 300 network system, 302
Synthesizing device, 304 Display device, 306 Storage device.
フロントページの続き Fターム(参考) 5B050 AA09 BA06 DA07 EA17 FA02 5C061 AA03 AA06 AA07 AA08 AA13 AB08 AB20 AB21 AB24 Continued front page F-term (reference) 5B050 AA09 BA06 DA07 EA17 FA02 5C061 AA03 AA06 AA07 AA08 AA13 AB08 AB20 AB21 AB24
Claims (28)
前記立体画像を表示するための一連の処理における所定
の場面にて参照すべき情報を付加することを特徴とする
立体画像処理方法。1. A basic image for displaying a stereoscopic image,
A stereoscopic image processing method, comprising adding information to be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image.
次元に関する情報が含まれることを特徴とする請求項1
に記載の方法。2. The information to be referred to includes information about a dimension of the basic image.
The method described in.
構成の態様に関する情報が含まれることを特徴とする請
求項1に記載の方法。3. The method according to claim 1, wherein the information to be referred to includes information regarding a configuration aspect of the basic image.
が複数の視差画像を並置して合成したサイドバイサイド
形式であるか、複数の視差画像を最終的に立体表示可能
な形に合成したマルチプレクス形式であるか、またはそ
れら以外の形式であるかを示す情報が含まれることを特
徴とする請求項3に記載の方法。4. The information regarding the aspect is a side-by-side format in which the basic image is composed by juxtaposing a plurality of parallax images, or a multiplex format in which a plurality of parallax images are finally combined in a stereoscopically displayable form. The method according to claim 3, characterized in that it includes information indicating whether or not it is in a format other than those.
想定された視点の数に関する情報が含まれることを特徴
とする請求項1に記載の方法。5. The method according to claim 1, wherein the information to be referred to includes information regarding the number of viewpoints assumed in the stereoscopic image.
並びに関する情報が含まれることを特徴とする請求項1
に記載の方法。6. The information to be referred to includes information about a sequence of the basic images.
The method described in.
前記立体画像における位置に関する情報が含まれること
を特徴とする請求項1に記載の方法。7. The method according to claim 1, wherein the information to be referred to includes information regarding a position of the basic image in the stereoscopic image.
データと、前記立体画像を表示するための一連の処理に
おける所定の場面にて参照すべき情報を保持する副デー
タとの組合せとして形成されていることを特徴とする立
体画像のためのデータ構造。8. A combination of main data of a basic image for displaying a stereoscopic image and sub-data holding information to be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image. A data structure for a stereoscopic image characterized by:
法にて圧縮したものであり、前記副データはその圧縮デ
ータに対するヘッダ領域に格納されることを特徴とする
請求項8に記載のデータ構造。9. The data according to claim 8, wherein the main data is obtained by compressing the basic image by a predetermined method, and the sub-data is stored in a header area for the compressed data. Construction.
付加された、前記立体画像を表示するための一連の処理
における所定の場面にて参照すべき情報を検出すること
を特徴とする立体画像処理方法。10. A stereoscopic image characterized by detecting information added to a basic image for displaying a stereoscopic image, which should be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image. Processing method.
に前記基礎画像の構成の態様を別のものに変換すること
を特徴とする請求項10に記載の方法。11. The method according to claim 10, further comprising converting the aspect of the structure of the basic image into another one based on the detected information to be referred.
前記基礎画像がそのまま立体表示可能な形に合成された
マルチプレクス形式ではないことが判明したとき、これ
をマルチプレクス形式に変換することを特徴とする請求
項11に記載の方法。12. From the detected information to be referred to,
12. The method according to claim 11, further comprising converting the basic image into a multiplex format when it is found that the basic image is not in a multiplex format in which the basic image can be stereoscopically displayed.
た前記参照すべき情報をもとに、前記基礎画像を現状の
まま圧縮することが前記立体画像に影響するか否かを判
定することを特徴とする請求項10に記載の方法。13. When compressing the basic image, it is determined whether or not compressing the basic image as it is affects the stereoscopic image based on the detected information to be referred to. The method according to claim 10, characterized in that
とが前記立体画像に影響すると判定されたとき、検出さ
れた前記参照すべき情報をもとに前記基礎画像の構成の
態様を別のものに変換することを特徴とする請求項13
に記載の方法。14. When it is determined that compressing the basic image as it is affects the stereoscopic image, another aspect of the configuration of the basic image is based on the detected information to be referred to. 14. It is converted into
The method described in.
してこれを伸張することによって前記基礎画像を取得す
ることを特徴とする請求項10から14のいずれかに記
載の方法。15. The method according to claim 10, wherein the basic image is acquired by acquiring image data that has been compressed in advance and expanding the image data.
を施す際、検出された前記参照すべき情報から、前記基
礎画像が複数の画像を並置して合成したサイドバイサイ
ド形式であると判明すればそのまま当該処理を施し、前
記基礎画像が複数の画像をそのまま立体表示可能な形に
合成したマルチプレクス形式であると判明すれば一旦こ
れをサイドバイサイド形式に変換した後に当該処理を施
すことを特徴とする請求項10に記載の方法。16. When performing a predetermined image processing on the basic image, it is found from the detected information to be referenced that the basic image is a side-by-side format in which a plurality of images are juxtaposed and combined. It is characterized in that the processing is performed as it is, and if it is found that the basic image is a multiplex format in which a plurality of images are combined as they are in a stereoscopic display form, the basic image is once converted into the side-by-side format and then the processing is performed. The method according to claim 10.
う際、画面に最終的に表示される基礎画像の構成の態様
とは異なる態様の基礎画像を前記メモリへ保持してお
き、適宜これを読み出して利用することを特徴とする立
体画像処理方法。17. When handling a stereoscopic image in a device having a memory, a basic image of a mode different from that of the structure of the basic image finally displayed on the screen is held in the memory, and the basic image is appropriately stored. A three-dimensional image processing method characterized by reading and using.
並置して合成したサイドバイサイド形式であることを特
徴とする請求項17に記載の方法。18. The method according to claim 17, wherein the different aspect is a side-by-side format in which a plurality of parallax images are juxtaposed and combined.
付加された、前記立体画像を表示するための一連の処理
における所定の場面にて参照すべき情報を検出し、その
情報をもとに前記立体画像の表示画面の輝度を調整する
ことを特徴とする立体画像処理方法。19. Information which is added to a basic image for displaying a stereoscopic image and should be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image is detected based on the information. A three-dimensional image processing method comprising adjusting the brightness of the display screen of the three-dimensional image.
に想定された視点の数に関する情報が含まれ、前記輝度
をその数に応じて調整することを特徴とする請求項19
に記載の方法。20. The information to be referred to includes information regarding the number of viewpoints assumed in the stereoscopic image, and the brightness is adjusted according to the number.
The method described in.
取得する画像取得部と、 取得された基礎画像に、前記立体画像を表示するための
一連の処理における所定の場面にて参照すべき情報を付
加する情報付加部と、 を含むことを特徴とする立体画像処理装置。21. An image acquisition unit for acquiring a basic image for displaying a stereoscopic image, and information to be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image on the acquired basic image. A stereoscopic image processing device, comprising: an information adding unit for adding.
取得する画像取得部と、 取得された基礎画像に付加された、前記立体画像を表示
するための一連の処理における所定の場面にて参照すべ
き情報を検出する情報検出部と、 を含むことを特徴とする立体画像処理装置。22. An image acquisition unit for acquiring a basic image for displaying a stereoscopic image, and reference in a predetermined scene in a series of processing for displaying the stereoscopic image, which is added to the acquired basic image. A stereoscopic image processing apparatus comprising: an information detection unit that detects information to be processed.
た画像データを入力し、この画像データを伸張すること
によって前記基礎画像を生成することを特徴とする請求
項22に記載の装置。23. The apparatus according to claim 22, wherein the image acquisition unit inputs precompressed image data and decompresses the image data to generate the basic image.
システムであって、 前記合成装置は、立体画像を表示するための基礎画像
に、前記立体画像を表示するための一連の処理における
所定の場面にて参照すべき情報を組み込み、 前記表示装置は、前記参照すべき情報を検出してこれを
もとに前記基礎画像に適宜画像処理を施し、前記立体画
像を表示することを特徴とする立体画像処理システム。24. A system including a stereoscopic image synthesizing device and a display device, wherein the synthesizing device provides a basic image for displaying the stereoscopic image with a predetermined image in a series of processes for displaying the stereoscopic image. Incorporating information to be referenced in a scene, the display device is configured to detect the information to be referenced, perform appropriate image processing on the basic image based on the information, and display the stereoscopic image. 3D image processing system.
取得し、この基礎画像を検査することによって前記立体
画像を表示するための一連の処理における所定の場面に
て参照すべき情報を推定することを特徴とする立体画像
処理方法。25. A basic image for displaying a stereoscopic image is acquired, and the basic image is inspected to estimate information to be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image. A stereoscopic image processing method characterized by the above.
に、前記立体画像を表示するための一連の処理における
所定の場面にて参照すべき情報を付加する処理をコンピ
ュータに実行せしめることを特徴とするコンピュータプ
ログラム。26. A computer is caused to execute a process of adding information to be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image to a basic image for displaying the stereoscopic image. A computer program to do.
付加された、前記立体画像を表示するための一連の処理
における所定の場面にて参照すべき情報を、コンピュー
タに検出せしめることを特徴とするコンピュータプログ
ラム。27. A computer is caused to detect information added to a basic image for displaying a stereoscopic image, which should be referred to in a predetermined scene in a series of processes for displaying the stereoscopic image. A computer program to do.
取得し、この基礎画像を検査することによって前記立体
画像を表示するための一連の処理における所定の場面に
て参照すべき情報を、コンピュータに推定せしめること
を特徴とするコンピュータプログラム。28. A computer acquires information to be referred to in a predetermined scene in a series of processing for displaying the stereoscopic image by acquiring a basic image for displaying the stereoscopic image and inspecting the basic image. A computer program characterized by:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001294981A JP3789794B2 (en) | 2001-09-26 | 2001-09-26 | Stereoscopic image processing method, apparatus, and system |
US10/227,945 US7277121B2 (en) | 2001-08-29 | 2002-08-27 | Stereoscopic image processing and display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001294981A JP3789794B2 (en) | 2001-09-26 | 2001-09-26 | Stereoscopic image processing method, apparatus, and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003111101A true JP2003111101A (en) | 2003-04-11 |
JP3789794B2 JP3789794B2 (en) | 2006-06-28 |
Family
ID=19116487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001294981A Expired - Fee Related JP3789794B2 (en) | 2001-08-29 | 2001-09-26 | Stereoscopic image processing method, apparatus, and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3789794B2 (en) |
Cited By (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240469A (en) * | 2002-12-13 | 2004-08-26 | Sharp Corp | Image data generating device and image data reproducing device for reproducing the data |
JP2004264882A (en) * | 2003-01-20 | 2004-09-24 | Sharp Corp | Image data generating device and image data reproducing device for reproducing the data |
JP2004274091A (en) * | 2003-01-15 | 2004-09-30 | Sharp Corp | Image data creating device, image data reproducing device, image data recording method, and image data recording medium |
JP2004336492A (en) * | 2003-05-08 | 2004-11-25 | Sharp Corp | Image processing apparatus and image processing method |
JP2004334833A (en) * | 2003-04-17 | 2004-11-25 | Sony Corp | Stereoscopic image processing device, information providing method, image display method |
JP2004349732A (en) * | 2003-04-17 | 2004-12-09 | Sharp Corp | Image file creating device and image file reproducing device |
JP2004349731A (en) * | 2003-04-17 | 2004-12-09 | Sharp Corp | Image data creation device and image data reproduction device |
JP2004357156A (en) * | 2003-05-30 | 2004-12-16 | Sharp Corp | Video receiving device and video reproducing device |
JP2005130311A (en) * | 2003-10-24 | 2005-05-19 | Sony Corp | Stereoscopic vision image processing device, data structure, and stereoscopic vision image generating method |
JPWO2003092304A1 (en) * | 2002-04-25 | 2005-09-08 | シャープ株式会社 | Image data generating device, image data reproducing device, and image data recording medium |
JPWO2003092303A1 (en) * | 2002-04-25 | 2005-09-08 | シャープ株式会社 | Multimedia information generating apparatus and multimedia information reproducing apparatus |
WO2006019038A1 (en) * | 2004-08-18 | 2006-02-23 | Sharp Kabushiki Kaisha | Three-dimensional image creating device and its three-dimensional image creating method |
WO2006019039A1 (en) * | 2004-08-18 | 2006-02-23 | Sharp Kabushiki Kaisha | Image data display |
JP2006072455A (en) * | 2004-08-31 | 2006-03-16 | Sanyo Electric Co Ltd | Visual point position identification device for multiple view point images constituting three-dimensional image |
WO2007013451A1 (en) * | 2005-07-26 | 2007-02-01 | Sharp Kabushiki Kaisha | 3d image recording device and program |
WO2007013449A1 (en) * | 2005-07-26 | 2007-02-01 | Sharp Kabushiki Kaisha | Image processing device |
WO2007072870A1 (en) * | 2005-12-22 | 2007-06-28 | Matsushita Electric Industrial Co., Ltd. | Video content recording device, video content recording method, video content recording program, video content reproduction device, video content reproduction method, video content reproduction program, video content edition device, and information recording medium |
CN100369062C (en) * | 2005-10-08 | 2008-02-13 | 李明 | Method for forming three-dimensional image and its display system |
WO2008030011A1 (en) * | 2006-09-04 | 2008-03-13 | Enhanced Chip Technology Inc. | File format for encoded stereoscopic image/video data |
JP2008193693A (en) * | 2002-12-13 | 2008-08-21 | Sharp Corp | Image data creation device and image data reproduction device |
KR100861476B1 (en) * | 2004-08-18 | 2008-10-02 | 샤프 가부시키가이샤 | Image data display device |
JP2009004940A (en) * | 2007-06-20 | 2009-01-08 | Victor Co Of Japan Ltd | Multi-viewpoint image encoding method, multi-viewpoint image encoding device, and multi-viewpoint image encoding program |
JP2009004939A (en) * | 2007-06-20 | 2009-01-08 | Victor Co Of Japan Ltd | Multi-viewpoint image decoding method, multi-viewpoint image decoding device, and multi-viewpoint image decoding program |
WO2008153313A3 (en) * | 2007-06-12 | 2009-02-05 | Samsung Electronics Co Ltd | System and method for generating and regenerating 3d image files based on 2d image media standards |
WO2008153312A3 (en) * | 2007-06-11 | 2009-02-12 | Samsung Electronics Co Ltd | System and method for generating and regenerating 3d image files based on 2d image media standards |
WO2009031872A3 (en) * | 2007-09-07 | 2009-04-30 | Samsung Electronics Co Ltd | System and method for generating and reproducing 3d stereoscopic image file including 2d image |
US7636088B2 (en) | 2003-04-17 | 2009-12-22 | Sharp Kabushiki Kaisha | 3-Dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program |
JP2010068315A (en) * | 2008-09-11 | 2010-03-25 | Mitsubishi Electric Corp | Video recording apparatus and method, and video reproduction apparatus and method |
JP2010088749A (en) * | 2008-10-09 | 2010-04-22 | Kenji Yoshida | Game machine |
WO2010064448A1 (en) * | 2008-12-05 | 2010-06-10 | パナソニック株式会社 | Stereoscopic video player, stereoscopic video playback system, stereoscopic video playback method, and semiconductor device for stereoscopic video playback |
KR100962696B1 (en) | 2007-06-07 | 2010-06-11 | 주식회사 이시티 | Construction method of encoded stereoscopic video data file |
JP2010245969A (en) * | 2009-04-08 | 2010-10-28 | Sony Corp | Recording device, recording method, reproduction device, reproduction method, program, and recording medium |
JP2010268433A (en) * | 2010-03-19 | 2010-11-25 | Sony Corp | Stereoscopic image processor, and stereoscopic image forming method |
JP2011509558A (en) * | 2007-12-18 | 2011-03-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Transport of stereoscopic image data through a display interface |
WO2011043213A1 (en) * | 2009-10-05 | 2011-04-14 | ソニー株式会社 | Signal transmission method, signal transmitter apparatus and signal receiver apparatus |
JP2011142632A (en) * | 2010-01-05 | 2011-07-21 | Sony Europe Ltd | Camera arrangement, camera system, and camera configuration method |
WO2011145503A1 (en) | 2010-05-18 | 2011-11-24 | ソニー株式会社 | Data transmission system |
US8111758B2 (en) | 2001-11-21 | 2012-02-07 | Electronics And Telecommunications Research Institute | 3D stereoscopic/multiview video processing system and its method |
JP2012100335A (en) * | 2012-01-26 | 2012-05-24 | Sony Corp | Reproduction device, reproduction method, and recording method |
JP2012124925A (en) * | 2012-01-26 | 2012-06-28 | Sony Corp | Recording method |
JP2012129827A (en) * | 2010-12-15 | 2012-07-05 | Sony Corp | Transmission device, transmission method, reception device, and reception method |
WO2012090471A1 (en) * | 2010-12-27 | 2012-07-05 | 富士フイルム株式会社 | Captured image display device and captured image display method |
JP2013500673A (en) * | 2009-07-27 | 2013-01-07 | サムスン エレクトロニクス カンパニー リミテッド | Method and apparatus for generating 3D video data stream in which additional information for playback of 3D video is inserted and apparatus thereof, and method and apparatus for receiving 3D video data stream in which additional information for playback of 3D video is inserted |
WO2013021915A1 (en) * | 2011-08-05 | 2013-02-14 | シャープ株式会社 | Three-dimensional image data generation method and three-dimensional image data generation device |
JP2013034197A (en) * | 2011-07-04 | 2013-02-14 | Toshiba Corp | Image processing apparatus, image processing method, and medical image diagnostic apparatus |
JP2013066242A (en) * | 2012-12-25 | 2013-04-11 | Toshiba Corp | Image display system, device, and method, and medical image diagnostic device |
JP2013070296A (en) * | 2011-09-26 | 2013-04-18 | Hitachi Consumer Electronics Co Ltd | Three-dimensional video processing device, three-dimensional display device, three-dimensional video processing method and receiving device |
JP2013515389A (en) * | 2009-12-21 | 2013-05-02 | シズベル テクノロジー エス.アール.エル. | Method for generating, transmitting and receiving stereoscopic images, and related apparatus |
JP2013524688A (en) * | 2010-04-05 | 2013-06-17 | クゥアルコム・インコーポレイテッド | Combining data from multiple image sensors |
JP5460702B2 (en) * | 2009-05-14 | 2014-04-02 | パナソニック株式会社 | Video data packet transmission method |
JPWO2012123982A1 (en) * | 2011-03-11 | 2014-07-17 | 日立コンシューマエレクトロニクス株式会社 | Recording apparatus / method / medium, reproducing apparatus / method |
US8811471B2 (en) | 2004-07-14 | 2014-08-19 | Ntt Docomo, Inc. | Moving picture decoding method, moving picture decoding program, moving picture decoding apparatus, moving picture encoding method, moving picture encoding program, and moving picture encoding apparatus |
US9001227B2 (en) | 2010-04-05 | 2015-04-07 | Qualcomm Incorporated | Combining data from multiple image sensors |
US9185385B2 (en) | 2008-07-16 | 2015-11-10 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
JP2015233320A (en) * | 2015-07-31 | 2015-12-24 | ソニー株式会社 | Transmission method and transmission apparatus |
US9456194B2 (en) | 2011-08-05 | 2016-09-27 | Panasonic Corporation | Reception/reproduction device, transmission device, reception/reproduction method and transmission method |
US9473759B2 (en) | 2011-07-01 | 2016-10-18 | Panasonic Corporation | Transmission device, reception and playback device, transmission method, and reception and playback method |
US9775053B2 (en) | 2011-02-25 | 2017-09-26 | Sisvel Technology S.R.L. | Method for localizing the position of a wireless device in an environment comprising a wireless network having at least one access point |
US10819974B2 (en) | 2010-07-07 | 2020-10-27 | Saturn Licensing Llc | Image data transmission apparatus, image data transmission method, image data reception apparatus, image data reception method, and image data transmission and reception system |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MX2011012447A (en) | 2010-03-29 | 2011-12-16 | Panasonic Corp | Video processing device. |
EP2602999A1 (en) | 2010-08-06 | 2013-06-12 | Panasonic Corporation | Encoding method, display device, and decoding method |
US20120106921A1 (en) | 2010-10-25 | 2012-05-03 | Taiji Sasaki | Encoding method, display apparatus, and decoding method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0530538A (en) * | 1991-07-24 | 1993-02-05 | Olympus Optical Co Ltd | Image recording device and image reproducing device |
JPH05122733A (en) * | 1991-10-28 | 1993-05-18 | Nippon Hoso Kyokai <Nhk> | 3D image display device |
JPH08317425A (en) * | 1995-05-19 | 1996-11-29 | Olympus Optical Co Ltd | Electronic camera |
JP2000197074A (en) * | 1998-12-25 | 2000-07-14 | Canon Inc | Stereoscopic video playback device and output device, control method therefor, and storage medium |
JP2001197521A (en) * | 2000-01-06 | 2001-07-19 | Toppan Printing Co Ltd | IMAGE CAPTURING APPARATUS, IMAGE CAPTURING METHOD, AND RECORDING MEDIUM RECORDING DATA REGARDING IMAGE CONDITION |
-
2001
- 2001-09-26 JP JP2001294981A patent/JP3789794B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0530538A (en) * | 1991-07-24 | 1993-02-05 | Olympus Optical Co Ltd | Image recording device and image reproducing device |
JPH05122733A (en) * | 1991-10-28 | 1993-05-18 | Nippon Hoso Kyokai <Nhk> | 3D image display device |
JPH08317425A (en) * | 1995-05-19 | 1996-11-29 | Olympus Optical Co Ltd | Electronic camera |
JP2000197074A (en) * | 1998-12-25 | 2000-07-14 | Canon Inc | Stereoscopic video playback device and output device, control method therefor, and storage medium |
JP2001197521A (en) * | 2000-01-06 | 2001-07-19 | Toppan Printing Co Ltd | IMAGE CAPTURING APPARATUS, IMAGE CAPTURING METHOD, AND RECORDING MEDIUM RECORDING DATA REGARDING IMAGE CONDITION |
Cited By (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8111758B2 (en) | 2001-11-21 | 2012-02-07 | Electronics And Telecommunications Research Institute | 3D stereoscopic/multiview video processing system and its method |
US7679616B2 (en) | 2002-04-25 | 2010-03-16 | Sharp Kabushiki Kaisha | Image data generation apparatus for adding attribute information regarding image pickup conditions to image data, image data reproduction apparatus for reproducing image data according to added attribute information, and image data recording medium related thereto |
JP2009124768A (en) * | 2002-04-25 | 2009-06-04 | Sharp Corp | Multimedia information generating apparatus and multimedia information reproducing apparatus |
JPWO2003092303A1 (en) * | 2002-04-25 | 2005-09-08 | シャープ株式会社 | Multimedia information generating apparatus and multimedia information reproducing apparatus |
JPWO2003092304A1 (en) * | 2002-04-25 | 2005-09-08 | シャープ株式会社 | Image data generating device, image data reproducing device, and image data recording medium |
JP2008193693A (en) * | 2002-12-13 | 2008-08-21 | Sharp Corp | Image data creation device and image data reproduction device |
JP2004240469A (en) * | 2002-12-13 | 2004-08-26 | Sharp Corp | Image data generating device and image data reproducing device for reproducing the data |
JP2004274091A (en) * | 2003-01-15 | 2004-09-30 | Sharp Corp | Image data creating device, image data reproducing device, image data recording method, and image data recording medium |
US7796808B2 (en) | 2003-01-20 | 2010-09-14 | Sharp Kabushiki Kaisha | Image data creation device and image data reproduction device for reproducing the data |
JP2004264882A (en) * | 2003-01-20 | 2004-09-24 | Sharp Corp | Image data generating device and image data reproducing device for reproducing the data |
JP2004349731A (en) * | 2003-04-17 | 2004-12-09 | Sharp Corp | Image data creation device and image data reproduction device |
US7636088B2 (en) | 2003-04-17 | 2009-12-22 | Sharp Kabushiki Kaisha | 3-Dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program |
JP2004349732A (en) * | 2003-04-17 | 2004-12-09 | Sharp Corp | Image file creating device and image file reproducing device |
JP2004334833A (en) * | 2003-04-17 | 2004-11-25 | Sony Corp | Stereoscopic image processing device, information providing method, image display method |
US7715618B2 (en) | 2003-04-17 | 2010-05-11 | Sharp Kabushiki Kaisha | Image file creating apparatus and image file reproducing apparatus |
US7889196B2 (en) | 2003-04-17 | 2011-02-15 | Sharp Kabushiki Kaisha | 3-dimensional image creating apparatus, 3-dimensional image reproducing apparatus, 3-dimensional image processing apparatus, 3-dimensional image processing program and recording medium recorded with the program |
JP2004336492A (en) * | 2003-05-08 | 2004-11-25 | Sharp Corp | Image processing apparatus and image processing method |
KR100745304B1 (en) | 2003-05-30 | 2007-08-01 | 샤프 가부시키가이샤 | Image receiving apparatus and image reproducing apparatus |
JP2004357156A (en) * | 2003-05-30 | 2004-12-16 | Sharp Corp | Video receiving device and video reproducing device |
JP2005130311A (en) * | 2003-10-24 | 2005-05-19 | Sony Corp | Stereoscopic vision image processing device, data structure, and stereoscopic vision image generating method |
US8811471B2 (en) | 2004-07-14 | 2014-08-19 | Ntt Docomo, Inc. | Moving picture decoding method, moving picture decoding program, moving picture decoding apparatus, moving picture encoding method, moving picture encoding program, and moving picture encoding apparatus |
US7859529B2 (en) | 2004-08-18 | 2010-12-28 | Sharp Kabushiki Kaisha | Image data display apparatus |
WO2006019039A1 (en) * | 2004-08-18 | 2006-02-23 | Sharp Kabushiki Kaisha | Image data display |
KR100861476B1 (en) * | 2004-08-18 | 2008-10-02 | 샤프 가부시키가이샤 | Image data display device |
WO2006019038A1 (en) * | 2004-08-18 | 2006-02-23 | Sharp Kabushiki Kaisha | Three-dimensional image creating device and its three-dimensional image creating method |
JP2006072455A (en) * | 2004-08-31 | 2006-03-16 | Sanyo Electric Co Ltd | Visual point position identification device for multiple view point images constituting three-dimensional image |
WO2007013451A1 (en) * | 2005-07-26 | 2007-02-01 | Sharp Kabushiki Kaisha | 3d image recording device and program |
KR100940879B1 (en) * | 2005-07-26 | 2010-02-09 | 샤프 가부시키가이샤 | Stereoscopic image recorder |
WO2007013449A1 (en) * | 2005-07-26 | 2007-02-01 | Sharp Kabushiki Kaisha | Image processing device |
JP2007036529A (en) * | 2005-07-26 | 2007-02-08 | Sharp Corp | Stereoscopic image recording apparatus and program |
CN100369062C (en) * | 2005-10-08 | 2008-02-13 | 李明 | Method for forming three-dimensional image and its display system |
WO2007072870A1 (en) * | 2005-12-22 | 2007-06-28 | Matsushita Electric Industrial Co., Ltd. | Video content recording device, video content recording method, video content recording program, video content reproduction device, video content reproduction method, video content reproduction program, video content edition device, and information recording medium |
WO2008030011A1 (en) * | 2006-09-04 | 2008-03-13 | Enhanced Chip Technology Inc. | File format for encoded stereoscopic image/video data |
KR100962696B1 (en) | 2007-06-07 | 2010-06-11 | 주식회사 이시티 | Construction method of encoded stereoscopic video data file |
WO2008153312A3 (en) * | 2007-06-11 | 2009-02-12 | Samsung Electronics Co Ltd | System and method for generating and regenerating 3d image files based on 2d image media standards |
US8644597B2 (en) | 2007-06-11 | 2014-02-04 | Samsung Electronics Co., Ltd | System and method for generating and regenerating 3D image files based on 2D image media standards |
US8457386B2 (en) | 2007-06-11 | 2013-06-04 | Samsung Electronics Co., Ltd | System and method for generating and regenerating 3D image files based on 2D image media standards |
WO2008153313A3 (en) * | 2007-06-12 | 2009-02-05 | Samsung Electronics Co Ltd | System and method for generating and regenerating 3d image files based on 2d image media standards |
JP2009004940A (en) * | 2007-06-20 | 2009-01-08 | Victor Co Of Japan Ltd | Multi-viewpoint image encoding method, multi-viewpoint image encoding device, and multi-viewpoint image encoding program |
JP2009004939A (en) * | 2007-06-20 | 2009-01-08 | Victor Co Of Japan Ltd | Multi-viewpoint image decoding method, multi-viewpoint image decoding device, and multi-viewpoint image decoding program |
WO2009031872A3 (en) * | 2007-09-07 | 2009-04-30 | Samsung Electronics Co Ltd | System and method for generating and reproducing 3d stereoscopic image file including 2d image |
US8508579B2 (en) | 2007-09-07 | 2013-08-13 | Samsung Electronics Co., Ltd | System and method for generating and reproducing 3D stereoscopic image file including 2D image |
JP2011509558A (en) * | 2007-12-18 | 2011-03-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Transport of stereoscopic image data through a display interface |
US9036010B2 (en) | 2007-12-18 | 2015-05-19 | Koninklijke Philips N.V. | Transport of stereoscopic image data over a display interface |
US9843786B2 (en) | 2007-12-18 | 2017-12-12 | Koninklijke Philips N.V. | Transport of stereoscopic image data over a display interface |
US9462258B2 (en) | 2007-12-18 | 2016-10-04 | Koninklijke Philips N.V. | Transport of stereoscopic image data over a display interface |
US10015468B2 (en) | 2008-07-16 | 2018-07-03 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
US9762887B2 (en) | 2008-07-16 | 2017-09-12 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
EP3174288A1 (en) | 2008-07-16 | 2017-05-31 | Sony Corporation | Transmitter, three-dimensional image data transmitting method |
US9807363B2 (en) | 2008-07-16 | 2017-10-31 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
US9451235B2 (en) | 2008-07-16 | 2016-09-20 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
US9185385B2 (en) | 2008-07-16 | 2015-11-10 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
EP3389262A1 (en) | 2008-07-16 | 2018-10-17 | Sony Corporation | System transmitting and receiving three-dimensional image data |
EP3598743A1 (en) | 2008-07-16 | 2020-01-22 | Sony Corporation | Method transmitting and receiving three-dimensional image data |
JP2010068315A (en) * | 2008-09-11 | 2010-03-25 | Mitsubishi Electric Corp | Video recording apparatus and method, and video reproduction apparatus and method |
JP2010088749A (en) * | 2008-10-09 | 2010-04-22 | Kenji Yoshida | Game machine |
JPWO2010064448A1 (en) * | 2008-12-05 | 2012-05-10 | パナソニック株式会社 | Stereoscopic video playback device, stereoscopic video playback system, stereoscopic video playback method, and stereoscopic video playback semiconductor device |
WO2010064448A1 (en) * | 2008-12-05 | 2010-06-10 | パナソニック株式会社 | Stereoscopic video player, stereoscopic video playback system, stereoscopic video playback method, and semiconductor device for stereoscopic video playback |
US8792780B2 (en) | 2009-04-08 | 2014-07-29 | Sony Corporation | Reproduction and recording apparatus and method for playing back and recording data encoded according to a predetermined standard |
JP2010245969A (en) * | 2009-04-08 | 2010-10-28 | Sony Corp | Recording device, recording method, reproduction device, reproduction method, program, and recording medium |
JP5460702B2 (en) * | 2009-05-14 | 2014-04-02 | パナソニック株式会社 | Video data packet transmission method |
US9392256B2 (en) | 2009-07-27 | 2016-07-12 | Samsung Electronics Co., Ltd. | Method and apparatus for generating 3-dimensional image datastream including additional information for reproducing 3-dimensional image, and method and apparatus for receiving the 3-dimensional image datastream |
JP2013500673A (en) * | 2009-07-27 | 2013-01-07 | サムスン エレクトロニクス カンパニー リミテッド | Method and apparatus for generating 3D video data stream in which additional information for playback of 3D video is inserted and apparatus thereof, and method and apparatus for receiving 3D video data stream in which additional information for playback of 3D video is inserted |
WO2011043213A1 (en) * | 2009-10-05 | 2011-04-14 | ソニー株式会社 | Signal transmission method, signal transmitter apparatus and signal receiver apparatus |
JP2013515389A (en) * | 2009-12-21 | 2013-05-02 | シズベル テクノロジー エス.アール.エル. | Method for generating, transmitting and receiving stereoscopic images, and related apparatus |
CN102135722B (en) * | 2010-01-05 | 2014-12-17 | 索尼公司 | Camera structure, camera system and method of producing the same |
JP2011142632A (en) * | 2010-01-05 | 2011-07-21 | Sony Europe Ltd | Camera arrangement, camera system, and camera configuration method |
CN102135722A (en) * | 2010-01-05 | 2011-07-27 | 索尼公司 | Camera structure, camera system and method of producing the same |
JP2010268433A (en) * | 2010-03-19 | 2010-11-25 | Sony Corp | Stereoscopic image processor, and stereoscopic image forming method |
KR101400515B1 (en) | 2010-04-05 | 2014-05-28 | 퀄컴 인코포레이티드 | Combining data from multiple image sensors |
US9001227B2 (en) | 2010-04-05 | 2015-04-07 | Qualcomm Incorporated | Combining data from multiple image sensors |
JP2013524688A (en) * | 2010-04-05 | 2013-06-17 | クゥアルコム・インコーポレイテッド | Combining data from multiple image sensors |
US8896668B2 (en) | 2010-04-05 | 2014-11-25 | Qualcomm Incorporated | Combining data from multiple image sensors |
WO2011145503A1 (en) | 2010-05-18 | 2011-11-24 | ソニー株式会社 | Data transmission system |
US10819974B2 (en) | 2010-07-07 | 2020-10-27 | Saturn Licensing Llc | Image data transmission apparatus, image data transmission method, image data reception apparatus, image data reception method, and image data transmission and reception system |
JP2012129827A (en) * | 2010-12-15 | 2012-07-05 | Sony Corp | Transmission device, transmission method, reception device, and reception method |
WO2012090471A1 (en) * | 2010-12-27 | 2012-07-05 | 富士フイルム株式会社 | Captured image display device and captured image display method |
US9775053B2 (en) | 2011-02-25 | 2017-09-26 | Sisvel Technology S.R.L. | Method for localizing the position of a wireless device in an environment comprising a wireless network having at least one access point |
JPWO2012123982A1 (en) * | 2011-03-11 | 2014-07-17 | 日立コンシューマエレクトロニクス株式会社 | Recording apparatus / method / medium, reproducing apparatus / method |
US9473759B2 (en) | 2011-07-01 | 2016-10-18 | Panasonic Corporation | Transmission device, reception and playback device, transmission method, and reception and playback method |
JP2013034197A (en) * | 2011-07-04 | 2013-02-14 | Toshiba Corp | Image processing apparatus, image processing method, and medical image diagnostic apparatus |
US9456194B2 (en) | 2011-08-05 | 2016-09-27 | Panasonic Corporation | Reception/reproduction device, transmission device, reception/reproduction method and transmission method |
US9467675B2 (en) | 2011-08-05 | 2016-10-11 | Sharp Kabushiki Kaisha | Three-dimensional image data generating method and three-dimensional image data generating device |
WO2013021915A1 (en) * | 2011-08-05 | 2013-02-14 | シャープ株式会社 | Three-dimensional image data generation method and three-dimensional image data generation device |
JP2013070296A (en) * | 2011-09-26 | 2013-04-18 | Hitachi Consumer Electronics Co Ltd | Three-dimensional video processing device, three-dimensional display device, three-dimensional video processing method and receiving device |
JP2012100335A (en) * | 2012-01-26 | 2012-05-24 | Sony Corp | Reproduction device, reproduction method, and recording method |
JP2012124925A (en) * | 2012-01-26 | 2012-06-28 | Sony Corp | Recording method |
JP2013066242A (en) * | 2012-12-25 | 2013-04-11 | Toshiba Corp | Image display system, device, and method, and medical image diagnostic device |
JP2015233320A (en) * | 2015-07-31 | 2015-12-24 | ソニー株式会社 | Transmission method and transmission apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP3789794B2 (en) | 2006-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3789794B2 (en) | Stereoscopic image processing method, apparatus, and system | |
US7277121B2 (en) | Stereoscopic image processing and display system | |
JP4392060B2 (en) | Parallax depth dependent pixel shift | |
US7889196B2 (en) | 3-dimensional image creating apparatus, 3-dimensional image reproducing apparatus, 3-dimensional image processing apparatus, 3-dimensional image processing program and recording medium recorded with the program | |
JP5011316B2 (en) | Rendering the output image | |
TWI573434B (en) | Versatile 3-d picture format | |
US7689031B2 (en) | Video filtering for stereo images | |
ES2676055T3 (en) | Effective image receiver for multiple views | |
US8218855B2 (en) | Method and apparatus for receiving multiview camera parameters for stereoscopic image, and method and apparatus for transmitting multiview camera parameters for stereoscopic image | |
JP4490074B2 (en) | Stereoscopic image processing apparatus, stereoscopic image display apparatus, stereoscopic image providing method, and stereoscopic image processing system | |
JP4942784B2 (en) | Multimedia information generating apparatus and multimedia information reproducing apparatus | |
JP7344988B2 (en) | Methods, apparatus, and computer program products for volumetric video encoding and decoding | |
JP4324435B2 (en) | Stereoscopic video providing method and stereoscopic video display device | |
EP1738331B1 (en) | Ghost artifact reduction for rendering 2.5d graphics | |
US20020030675A1 (en) | Image display control apparatus | |
US20090284584A1 (en) | Image processing device | |
US20140376635A1 (en) | Stereo scopic video coding device, steroscopic video decoding device, stereoscopic video coding method, stereoscopic video decoding method, stereoscopic video coding program, and stereoscopic video decoding program | |
Hill et al. | 3-D liquid crystal displays and their applications | |
US20090244258A1 (en) | Stereoscopic display apparatus, stereoscopic display method, and program | |
US8866887B2 (en) | Computer graphics video synthesizing device and method, and display device | |
KR20110093828A (en) | Method and system for encoding 3D image signal, encoded 3D image signal, method and system for decoding 3D image signal | |
KR20080072634A (en) | Stereoscopic Format Converter | |
CN102014293A (en) | Three-dimensional rendering method of plane video | |
Gotchev | Computer technologies for 3d video delivery for home entertainment | |
JP5526929B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050322 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051213 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060329 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100407 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110407 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120407 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120407 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130407 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130407 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140407 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |