JP2014504468A - 画像運動情報に基づく2dから3dへの変換方法 - Google Patents
画像運動情報に基づく2dから3dへの変換方法 Download PDFInfo
- Publication number
- JP2014504468A JP2014504468A JP2013540213A JP2013540213A JP2014504468A JP 2014504468 A JP2014504468 A JP 2014504468A JP 2013540213 A JP2013540213 A JP 2013540213A JP 2013540213 A JP2013540213 A JP 2013540213A JP 2014504468 A JP2014504468 A JP 2014504468A
- Authority
- JP
- Japan
- Prior art keywords
- image
- value
- pixel
- depth
- motion information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
- G06T7/238—Analysis of motion using block-matching using non-full search, e.g. three-step search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
- H04N13/264—Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
本発明は画像運動情報に基づく2Dから3Dへの変換方法を開示し、2Dから3Dに変換する技術分野に関する。この方法は、運動推定の方法により、入力された2D画像における画素の深度値を得るステップS1と、各画素の輝度値により、各画素の深度値を加算し、入力された2D画像の深度マップを得るステップS2と、ステップS2により得られる深度マップにより、深度マップによる画像の再構築を行って、左目画像及び/又は右目画像を再構築するステップS3と、ステップS4による左目画像及び右目画像を合成して出力し、3D画像を得るステップS4と、を含む。本発明において、運動推定により得られた深度値に対して加算処理を行うことで、得られた深度マップは連続で且つ密であるため、再構築された画像の品質及び3Dの視覚効果を向上させることができる。
【選択図】図1
【選択図】図1
Description
本発明は2Dから3Dに変換する技術分野に関する、特に、画像運動情報に基づく2Dから3Dへの変換方法に関する。
スリーディー(Three Dimensions、3D)テレビが席巻してきて、世界のテレビ産業の新しい発展方向となり、各大手テレビメーカーは相次いで各自の3Dテレビを開発してきた。3D技術の応用は生活の中でますます人気が高まり、3D映画が絶えず制作されているが、3Dビデオ素材はまだ現在の市場ニーズを満足できない。ツーディー(Two Dimensions、2D)ビデオ素材を自動的に3Dに変換することは、新たな市場ニーズとなった。2Dから3Dへの変換は即ち2D画像内容に基づく第二画像・ビデオを作成することであり、この過程は、深度推定により深度マップ(depth map/image)を得ることと、深度マップに基づき画像を再構築する(Depth Image Based Rendering, DIBR)ことの二つの処理を含む。深度マップには8ビットのグレー値で深度情報が格納されている(グレー値0は最も遠い値であり、グレー値255は最も近い値である)。近年に、2Dから3Dへの変換の分野には、たくさんのアルゴリズムが開発され、運動推定に基づく2Dから3Dへの変換アルゴリズムがよく用いられる。この方法は、運動推定の方法により入力された画像の深度マップを得る。但し、深度マップはかなりの密度と精度を必要とするが、従来の、運動推定に基づく2Dから3Dへの変換アルゴリズムにより得られる深度マップは疎らであるため、物体を分解する時、異なる物体を区別できないので、DIBRによる画像の品質を影響する。従って、この方法が広く使用されることに制限がある。
本発明は、画像運動情報に基づく2Dから3Dへの変換方法により得られる画像の品質を向上させることを目的とする。
上記の課題を解決するために、本発明は、画像運動情報に基づく2Dから3Dへの変換方法を提供する。この方法は、
運動推定の方法により、入力された2D画像における各画素の深度値を得るステップS1と、
各画素の輝度値により、前記各画素の深度値を加算し、前記の入力された2D画像の深度マップを得るステップS2と、
ステップS2により得られる深度マップにより、深度マップによる画像の再構築を行い、左目画像及び/又は右目画像を再構築するステップS3と、
ステップS4による左目画像及び右目画像を合成して出力し、3D画像を得るステップS4と、を含む。
運動推定の方法により、入力された2D画像における各画素の深度値を得るステップS1と、
各画素の輝度値により、前記各画素の深度値を加算し、前記の入力された2D画像の深度マップを得るステップS2と、
ステップS2により得られる深度マップにより、深度マップによる画像の再構築を行い、左目画像及び/又は右目画像を再構築するステップS3と、
ステップS4による左目画像及び右目画像を合成して出力し、3D画像を得るステップS4と、を含む。
好ましくは、ステップS1は、
運動推定の方法により、各画素の動きべクトルを算出するステップS1.1と、
ステップS1.1により得られる動きべクトルを用い、各画素の深度値を算出するステップS1.2と、をさらに含む。
運動推定の方法により、各画素の動きべクトルを算出するステップS1.1と、
ステップS1.1により得られる動きべクトルを用い、各画素の深度値を算出するステップS1.2と、をさらに含む。
好ましくは、前記深度値の計算式は以下の通りである。
好ましくは、前記運動推定の方法は、ダイヤモンド検索アルゴリズム(diamond search algorithm)である。
好ましくは、ステップS2は、
前記の入力された2D画像の一行目から、各画素の深度値を加算して、画素ごとの深度加算値D(x,y)'を得るステップS2.1と、
以下の式により、前記深度加算値を[0,255]の間に正規化して、正規化された深度値D(x,y)''を得るステップS2.2と、を更に含む。
前記の入力された2D画像の一行目から、各画素の深度値を加算して、画素ごとの深度加算値D(x,y)'を得るステップS2.1と、
以下の式により、前記深度加算値を[0,255]の間に正規化して、正規化された深度値D(x,y)''を得るステップS2.2と、を更に含む。
(式の中に、I(x,y)は(x,y)に位置する画素の輝度値であり、その値は[0,255]の範囲にあり、SCALEは輝度値のスケーリング係数であり、widthは前記の入力された2D画像の幅であり、heightは前記の入力された2D画像の高さであり、DEPTH_SCALEは深度値のスケーリング係数であり、
好ましくは、ステップS2.1は、
yは0である場合、D(x,y)'=0であるが、そうではない場合、ステップS2.12へ進むステップS2.11と、
yは奇数である場合、且つxは0であると、D(x,y)'=D(x,y-1)'+D(x,y)であって、xは0ではないと、
yは0である場合、D(x,y)'=0であるが、そうではない場合、ステップS2.12へ進むステップS2.11と、
yは奇数である場合、且つxは0であると、D(x,y)'=D(x,y-1)'+D(x,y)であって、xは0ではないと、
であるが、そうではない場合、ステップS2.13へ進むステップS2.12と、
x=width-1である場合、D(x,y)'=D(x,y-1)'+D(x,y)であるが、そうではない場合、
x=width-1である場合、D(x,y)'=D(x,y-1)'+D(x,y)であるが、そうではない場合、
であるステップS2.13と、
y<heightである場合、ステップS2.11に戻るが、そうではない場合、ステップS2.12またはS2.13によるD(x,y)'を出力するステップS2.14とを、更に含む。
y<heightである場合、ステップS2.11に戻るが、そうではない場合、ステップS2.12またはS2.13によるD(x,y)'を出力するステップS2.14とを、更に含む。
好ましくは、SCALE=0.1である。
好ましくは、DEPTH_SCALE=120である。
好ましくは、ステップS3は、
以下の式により左目画像または右目画像を再構築するステップS3.1と、
以下の式により左目画像または右目画像を再構築するステップS3.1と、
(式の中に、xl、xrは、それぞれ左目画像及び右目画像において、入力された2D画像の位置xcに対応する位置であり、fは目の焦点距離であり、txは左右の目の間隔であり、Zは画素の点が人の目から離れる距離であり、Dzeroはゼロ平面の位置で、その値が[0,255]の範囲にある。)
(xc,y)に位置する画素値を、対応する(xl,y)または(xr,y)にコピーするステップS3.2と、を更に含む。
(xc,y)に位置する画素値を、対応する(xl,y)または(xr,y)にコピーするステップS3.2と、を更に含む。
好ましくは、Dzero=255である。
本発明において、運動推定により得られた深度値に対して、加算処理を行うため、得られた深度マップは連続で且つ密であり、再構築された画像の品質及び3Dの視覚効果を向上させることができる。
次に、図面と実施例を参考にして、本発明に係る、画像の運動情報に基づく2Dから3Dへの変換方法を詳しく説明する。
図1に示すように、本発明の一実施形態に係る、画像の運動情報に基づく2Dから3Dへの変換方法は、
運動推定の方法により、入力された2D画像における各画素の深度値を得るステップS1と、
各画素の輝度値により、各画素の深度値を加算し、入力された2D画像の深度マップを得るステップS2と、
ステップS2により得られる深度マップにより、深度マップによる画像の再構築を行い、左目画像及び/又は右目画像を再構築するステップS3と、
ステップS4による左目画像及び右目画像を合成して出力し、3D画像を得るステップS4とを含む。
運動推定の方法により、入力された2D画像における各画素の深度値を得るステップS1と、
各画素の輝度値により、各画素の深度値を加算し、入力された2D画像の深度マップを得るステップS2と、
ステップS2により得られる深度マップにより、深度マップによる画像の再構築を行い、左目画像及び/又は右目画像を再構築するステップS3と、
ステップS4による左目画像及び右目画像を合成して出力し、3D画像を得るステップS4とを含む。
この実施形態において、ステップS1は、
運動推定の方法により、各画素の動きべクトルを算出するステップS1.1と、
ステップS1.1により得られる動きべクトルを用い、各画素の深度値を算出するステップS1.2とをさらに含む。
ステップS1.1の中、運動推定の方法として、ダイヤモンド検索アルゴリズムが用いられ、まず、大きいダイヤモンドの検索を行い、次は小さいダイヤモンドの検索を行い、最後には、整数画素精度の動きベクトルを得る。当然ながら、ここでは、本発明の方法はこれに限定されなく、他の検索アルゴリズムも適用できる。
運動推定の方法により、各画素の動きべクトルを算出するステップS1.1と、
ステップS1.1により得られる動きべクトルを用い、各画素の深度値を算出するステップS1.2とをさらに含む。
ステップS1.1の中、運動推定の方法として、ダイヤモンド検索アルゴリズムが用いられ、まず、大きいダイヤモンドの検索を行い、次は小さいダイヤモンドの検索を行い、最後には、整数画素精度の動きベクトルを得る。当然ながら、ここでは、本発明の方法はこれに限定されなく、他の検索アルゴリズムも適用できる。
中には、深度値の計算式は以下の通りである。
(式の中に、yは画素の位置する行番号であり、xは画素の位置する列番号であり、D(x,y)は未知の(x,y)に位置する画素の深度値であり、MVx及びMVyはそれぞれ上記画素の水平方向及び垂直方向における動きベクトルであり、Cは定数であり、本実施形態において、C=1である。)
ステップS1.1において検索の精度を向上させ、ノイズ(特に、ビデオ素材に加えたごま塩ノイズ)による動き検索への影響を低減させるために、ステップS1.1の動き検索を行う前に、入力された2D画像に対してノイズ除去処理を行ってもよい。これは当業者にとって周知なものであるため、ここでは贅言しない。
動き検索による動きベクトルは連続ではなく、直接的に算出すると、得られる深度マップが疎らであるが、実際の深度マップが密であるはずだ。従って、本発明において、各画素の輝度値によって、動きベクトルから算出した深度値を加算する。
この実施形態において、ステップS2は、
入力された2D画像の一行目から、各画素の深度値を加算して、画素ごとの深度加算値D(x,y)'を得るステップS2.1と、
以下の式により、深度加算値を[0,255]の間に正規化して、正規化された深度値D(x,y)''を得ることで、連続で且つ密な深度マップを得るステップS2.2と、
入力された2D画像の一行目から、各画素の深度値を加算して、画素ごとの深度加算値D(x,y)'を得るステップS2.1と、
以下の式により、深度加算値を[0,255]の間に正規化して、正規化された深度値D(x,y)''を得ることで、連続で且つ密な深度マップを得るステップS2.2と、
(式の中に、I(x,y)は (x,y)に位置する画素の輝度値であり、その値は[0,255]の範囲にあり、SCALEは輝度値のスケーリング係数であり、本実施形態において、SCALE=0.1であり、widthは入力された2D画像の幅であり、heightは入力された2D画像の高さであり、DEPTH_SCALEは深度値のスケーリング係数であり、本実施形態において、DEPTH_SCALE=120であり、
である。)
ステップS2.2で得られる、正規化された深度値D(x,y)''に対して、非対称ガウスのフィルタリング処理を行い、最終の深度値D(x,y)''を得るステップS2.3とを、さらに含む。この非対称ガウスのフィルタリング処理は本分野において周知なものであるため、ここでは贅言しない。
さらに、このステップS2.1は、
yは0である場合、D(x,y)'=0であり、そうではない場合、ステップS2.12へ進むステップS2.11と、
yは奇数である場合、且つ、xは0であると、D(x,y)'=D(x,y-1)'+D(x,y)であり、xは0ではないと、
ステップS2.2で得られる、正規化された深度値D(x,y)''に対して、非対称ガウスのフィルタリング処理を行い、最終の深度値D(x,y)''を得るステップS2.3とを、さらに含む。この非対称ガウスのフィルタリング処理は本分野において周知なものであるため、ここでは贅言しない。
さらに、このステップS2.1は、
yは0である場合、D(x,y)'=0であり、そうではない場合、ステップS2.12へ進むステップS2.11と、
yは奇数である場合、且つ、xは0であると、D(x,y)'=D(x,y-1)'+D(x,y)であり、xは0ではないと、
であるが、そうではない場合、ステップS2.13へ進むステップS2.12と、
x=width-1である場合、D(x,y)'=D(x,y-1)'+D(x,y)であり、そうではない場合、
x=width-1である場合、D(x,y)'=D(x,y-1)'+D(x,y)であり、そうではない場合、
であるステップS2.13と、
y<heightである場合、ステップS2.11に戻るが、そうではない場合、ステップS2.12またはS2.13によるD(x,y)'を出力するステップS2.14とをさらに含む。
y<heightである場合、ステップS2.11に戻るが、そうではない場合、ステップS2.12またはS2.13によるD(x,y)'を出力するステップS2.14とをさらに含む。
画像の水平方向に投影変換を行うので、水平方向において、深度値の連続性をできるだけ保持して、動き検索によるノイズからの大きな影響を避ける。従って、本発明において、スケールモーション(Scale Motion)に水平グラデーション値を用いずに深度値を得る。
人の目の視覚特性によると、視感覚が右目に頼る人は70%で、視感覚が左目に頼る人は20%である。そして、計算量を低減させるために、本発明において、DIBRにより画像を再構築する際に、一般性を失うことないように、ユーザーの頼らない目だけを再構築する。ここで、左目を黙認する。しかも、この場合、再構築されたフレームは品質が低下であるが、3Dの視覚効果に影響を与えない。従って、本実施形態におけるステップS3では、左目の画像を例として、即ち、ステップS3において、ステップS2による深度マップに基づいて、DIBRにより左目の画像を再構築する。
図2に示すように、その中に、Ccは入力された2D画像であり、Clは再構築された左目画像であり、Crは再構築された右目画像であり、fは目の焦点距離であり、txはベースライン距離であり、即ち、左右の目の間隔であり、Zは観察される画素の点が人の目から離れる距離であり、式(11)により算出する。Dzeroはゼロ平面の位置で、その値が[0,255]の範囲にあるが、本実施形態において、255になってもよい。式(9)(10)は、図2において、Cl、Cr、Ccにおける同一の画素の点に対応する投影の幾何学的関係である。式(9)(10)により、入力された2D画像の位置xcに対応する位置xlまたはxrの値を算出する。その後、 (xc,y)に位置する画素値を、対応する位置(xl,y)または(xr,y)にコピーする(本実施形態には位置(xl,y)にコピーする)。
即ち、ステップS3は、
以下の式により左目画像または右目画像を再構築するステップS3.1と、
以下の式により左目画像または右目画像を再構築するステップS3.1と、
(式の中に、xl、xrは、それぞれ左目画像及び右目画像において、入力された2D画像の位置xcに対応する位置であり、fは目の焦点距離であり、txは左右の目の間隔であり、Zは画素の点が人の目から離れる距離であり、Dzeroはゼロ平面の位置であり、その値は[0,255]の範囲にある。)
(xc,y)に位置する画素値を、対応する(xl,y)または(xr,y)にコピーするステップS3.2とを、さらに含む。
(xc,y)に位置する画素値を、対応する(xl,y)または(xr,y)にコピーするステップS3.2とを、さらに含む。
再構築された画像におけるのこぎり効果(saw teeth effect)を低減させるために、まず、入力された2D画像を水平方向にスケーリングすることで、投影する際の画像精度を向上させる。本実施形態において、水平方向に画像を元の4倍になるように引っ張って、上記した人の目の視覚関係により、行ごとのxlに対応する1/4の画像精度のx値を算出する。xlに対応するx値は画像範囲を超える場合、補間値によりxlに位置する画素値を得る。複数のxlに対応するx値は同じである場合、D(x,y)''の中の最大のxl値を採用し、他のxl位置の値は補間値により得る。xlに対応するx値は唯一である場合、xlに位置する画素値は入力された2D画像の、xに位置する画素値である。
上記した実施形態は本発明を説明したものに過ぎず、本発明は上述した実施の形態に限定されない。当業者であれば、本発明の主旨及び範囲から逸脱しない範囲で、種々の変更や変形が可能である。そのため、あらゆる同等の技術案は本発明の範囲に属し、本発明の保護しようとする範囲は請求の範囲により決定される。
本発明に係る画像の運動情報に基づく2Dから3Dへの変換方法を利用して得られた画像の再構築は、画像の品質が高く、3Dの視覚効果が優れる。これによって、2Dビデオ素材を3Dに自動的に変換する市場開発を進める上で重大な意義を持っている。
本発明は2Dから3Dに変換する技術分野に関する、特に、画像運動情報に基づく2Dから3Dへの変換方法に関する。
スリーディー(Three Dimensions、3D)テレビが席巻してきて、世界のテレビ産業の新しい発展方向となり、各大手テレビメーカーは相次いで各自の3Dテレビを開発してきた。3D技術の応用は生活の中でますます人気が高まり、3D映画が絶えず制作されているが、3Dビデオ素材はまだ現在の市場ニーズを満足できない。ツーディー(Two Dimensions、2D)ビデオ素材を自動的に3Dに変換することは、新たな市場ニーズとなった。2Dから3Dへの変換は即ち2D画像内容に基づく第二画像・ビデオを作成することであり、この過程は、深度推定により深度マップ(depth map/image)を得ることと、深度マップに基づき画像を再構築する(Depth Image Based Rendering, DIBR)ことの二つの処理を含む。深度マップには8ビットのグレー値で深度情報が格納されている(グレー値0は最も遠い値であり、グレー値255は最も近い値である)。近年に、2Dから3Dへの変換の分野には、たくさんのアルゴリズムが開発され、運動推定に基づく2Dから3Dへの変換アルゴリズムがよく用いられる。この方法は、運動推定の方法により入力された画像の深度マップを得る。但し、深度マップはかなりの密度と精度を必要とするが、従来の、運動推定に基づく2Dから3Dへの変換アルゴリズムにより得られる深度マップは疎らであるため、物体を分解する時、異なる物体を区別できないので、DIBRによる画像の品質を影響する。従って、この方法が広く使用されることに制限がある。
本発明は、画像運動情報に基づく2Dから3Dへの変換方法により得られる画像の品質を向上させることを目的とする。
上記の課題を解決するために、本発明は、画像運動情報に基づく2Dから3Dへの変換方法を提供する。この方法は、
運動推定の方法により、入力された2D画像における各画素の深度値を得るステップS1と、
各画素の輝度値により、前記各画素の深度値を加算し、前記の入力された2D画像の深度マップを得るステップS2と、
ステップS2により得られる深度マップにより、深度マップによる画像の再構築を行い、左目画像及び/又は右目画像を再構築するステップS3と、
ステップS3による左目画像及び右目画像を合成して出力し、3D画像を得るステップS4と、を含む。
運動推定の方法により、入力された2D画像における各画素の深度値を得るステップS1と、
各画素の輝度値により、前記各画素の深度値を加算し、前記の入力された2D画像の深度マップを得るステップS2と、
ステップS2により得られる深度マップにより、深度マップによる画像の再構築を行い、左目画像及び/又は右目画像を再構築するステップS3と、
ステップS3による左目画像及び右目画像を合成して出力し、3D画像を得るステップS4と、を含む。
好ましくは、ステップS1は、
運動推定の方法により、各画素の動きべクトルを算出するステップS1.1と、
ステップS1.1により得られる動きべクトルを用い、各画素の深度値を算出するステップS1.2と、をさらに含む。
運動推定の方法により、各画素の動きべクトルを算出するステップS1.1と、
ステップS1.1により得られる動きべクトルを用い、各画素の深度値を算出するステップS1.2と、をさらに含む。
好ましくは、前記深度値の計算式は以下の通りである。
好ましくは、前記運動推定の方法は、ダイヤモンド検索アルゴリズム(diamond search algorithm)である。
好ましくは、ステップS2は、
前記の入力された2D画像の一行目から、各画素の深度値を加算して、画素ごとの深度加算値D(x,y)'を得るステップS2.1と、
以下の式により、前記深度加算値を[0,255]の間に正規化して、正規化された深度値D(x,y)''を得るステップS2.2と、を更に含む。
前記の入力された2D画像の一行目から、各画素の深度値を加算して、画素ごとの深度加算値D(x,y)'を得るステップS2.1と、
以下の式により、前記深度加算値を[0,255]の間に正規化して、正規化された深度値D(x,y)''を得るステップS2.2と、を更に含む。
(式の中に、I(x,y)は(x,y)に位置する画素の輝度値であり、その値は[0,255]の範囲にあり、SCALEは輝度値のスケーリング係数であり、widthは前記の入力された2D画像の幅であり、heightは前記の入力された2D画像の高さであり、DEPTH_SCALEは深度値のスケーリング係数であり、
好ましくは、ステップS2.1は、
yは0である場合、D(x,y)'=0であるが、そうではない場合、ステップS2.12へ進むステップS2.11と、
yは奇数である場合、且つxは0であると、D(x,y)'=D(x,y-1)'+D(x,y)であって、xは0ではないと、
yは0である場合、D(x,y)'=0であるが、そうではない場合、ステップS2.12へ進むステップS2.11と、
yは奇数である場合、且つxは0であると、D(x,y)'=D(x,y-1)'+D(x,y)であって、xは0ではないと、
であるが、そうではない場合、ステップS2.13へ進むステップS2.12と、
x=width-1である場合、D(x,y)'=D(x,y-1)'+D(x,y)であるが、そうではない場合、
x=width-1である場合、D(x,y)'=D(x,y-1)'+D(x,y)であるが、そうではない場合、
であるステップS2.13と、
y<heightである場合、ステップS2.11に戻るが、そうではない場合、ステップS2.12またはS2.13によるD(x,y)'を出力するステップS2.14とを、更に含む。
y<heightである場合、ステップS2.11に戻るが、そうではない場合、ステップS2.12またはS2.13によるD(x,y)'を出力するステップS2.14とを、更に含む。
好ましくは、SCALE=0.1である。
好ましくは、DEPTH_SCALE=120である。
好ましくは、ステップS3は、
以下の式により左目画像または右目画像を再構築するステップS3.1と、
以下の式により左目画像または右目画像を再構築するステップS3.1と、
(式の中に、xl、xrは、それぞれ左目画像及び右目画像において、入力された2D画像の位置xcに対応する位置であり、fは目の焦点距離であり、txは左右の目の間隔であり、Zは画素の点が人の目から離れる距離であり、Dzeroはゼロ平面の位置で、その値が[0,255]の範囲にある。)
(xc,y)に位置する画素値を、対応する(xl,y)または(xr,y)にコピーするステップS3.2と、を更に含む。
(xc,y)に位置する画素値を、対応する(xl,y)または(xr,y)にコピーするステップS3.2と、を更に含む。
好ましくは、Dzero=255である。
本発明において、運動推定により得られた深度値に対して、加算処理を行うため、得られた深度マップは連続で且つ密であり、再構築された画像の品質及び3Dの視覚効果を向上させることができる。
次に、図面と実施例を参考にして、本発明に係る、画像の運動情報に基づく2Dから3Dへの変換方法を詳しく説明する。
図1に示すように、本発明の一実施形態に係る、画像の運動情報に基づく2Dから3Dへの変換方法は、
運動推定の方法により、入力された2D画像における各画素の深度値を得るステップS1と、
各画素の輝度値により、各画素の深度値を加算し、入力された2D画像の深度マップを得るステップS2と、
ステップS2により得られる深度マップにより、深度マップによる画像の再構築を行い、左目画像及び/又は右目画像を再構築するステップS3と、
ステップS3による左目画像及び右目画像を合成して出力し、3D画像を得るステップS4とを含む。
運動推定の方法により、入力された2D画像における各画素の深度値を得るステップS1と、
各画素の輝度値により、各画素の深度値を加算し、入力された2D画像の深度マップを得るステップS2と、
ステップS2により得られる深度マップにより、深度マップによる画像の再構築を行い、左目画像及び/又は右目画像を再構築するステップS3と、
ステップS3による左目画像及び右目画像を合成して出力し、3D画像を得るステップS4とを含む。
この実施形態において、ステップS1は、
運動推定の方法により、各画素の動きべクトルを算出するステップS1.1と、
ステップS1.1により得られる動きべクトルを用い、各画素の深度値を算出するステップS1.2とをさらに含む。
ステップS1.1の中、運動推定の方法として、ダイヤモンド検索アルゴリズムが用いられ、まず、大きいダイヤモンドの検索を行い、次は小さいダイヤモンドの検索を行い、最後には、整数画素精度の動きベクトルを得る。当然ながら、ここでは、本発明の方法はこれに限定されなく、他の検索アルゴリズムも適用できる。
運動推定の方法により、各画素の動きべクトルを算出するステップS1.1と、
ステップS1.1により得られる動きべクトルを用い、各画素の深度値を算出するステップS1.2とをさらに含む。
ステップS1.1の中、運動推定の方法として、ダイヤモンド検索アルゴリズムが用いられ、まず、大きいダイヤモンドの検索を行い、次は小さいダイヤモンドの検索を行い、最後には、整数画素精度の動きベクトルを得る。当然ながら、ここでは、本発明の方法はこれに限定されなく、他の検索アルゴリズムも適用できる。
中には、深度値の計算式は以下の通りである。
(式の中に、yは画素の位置する行番号であり、xは画素の位置する列番号であり、D(x,y)は未知の(x,y)に位置する画素の深度値であり、MVx及びMVyはそれぞれ上記画素の水平方向及び垂直方向における動きベクトルであり、Cは定数であり、本実施形態において、C=1である。)
ステップS1.1において検索の精度を向上させ、ノイズ(特に、ビデオ素材に加えたごま塩ノイズ)による動き検索への影響を低減させるために、ステップS1.1の動き検索を行う前に、入力された2D画像に対してノイズ除去処理を行ってもよい。これは当業者にとって周知なものであるため、ここでは贅言しない。
動き検索による動きベクトルは連続ではなく、直接的に算出すると、得られる深度マップが疎らであるが、実際の深度マップが密であるはずだ。従って、本発明において、各画素の輝度値によって、動きベクトルから算出した深度値を加算する。
この実施形態において、ステップS2は、
入力された2D画像の一行目から、各画素の深度値を加算して、画素ごとの深度加算値D(x,y)'を得るステップS2.1と、
以下の式により、深度加算値を[0,255]の間に正規化して、正規化された深度値D(x,y)''を得ることで、連続で且つ密な深度マップを得るステップS2.2と、
入力された2D画像の一行目から、各画素の深度値を加算して、画素ごとの深度加算値D(x,y)'を得るステップS2.1と、
以下の式により、深度加算値を[0,255]の間に正規化して、正規化された深度値D(x,y)''を得ることで、連続で且つ密な深度マップを得るステップS2.2と、
(式の中に、I(x,y)は (x,y)に位置する画素の輝度値であり、その値は[0,255]の範囲にあり、SCALEは輝度値のスケーリング係数であり、本実施形態において、SCALE=0.1であり、widthは入力された2D画像の幅であり、heightは入力された2D画像の高さであり、DEPTH_SCALEは深度値のスケーリング係数であり、本実施形態において、DEPTH_SCALE=120であり、
である。)
ステップS2.2で得られる、正規化された深度値D(x,y)''に対して、非対称ガウスのフィルタリング処理を行い、最終の深度値D(x,y)''を得るステップS2.3とを、さらに含む。この非対称ガウスのフィルタリング処理は本分野において周知なものであるため、ここでは贅言しない。
さらに、このステップS2.1は、
yは0である場合、D(x,y)'=0であり、そうではない場合、ステップS2.12へ進むステップS2.11と、
yは奇数である場合、且つ、xは0であると、D(x,y)'=D(x,y-1)'+D(x,y)であり、xは0ではないと、
ステップS2.2で得られる、正規化された深度値D(x,y)''に対して、非対称ガウスのフィルタリング処理を行い、最終の深度値D(x,y)''を得るステップS2.3とを、さらに含む。この非対称ガウスのフィルタリング処理は本分野において周知なものであるため、ここでは贅言しない。
さらに、このステップS2.1は、
yは0である場合、D(x,y)'=0であり、そうではない場合、ステップS2.12へ進むステップS2.11と、
yは奇数である場合、且つ、xは0であると、D(x,y)'=D(x,y-1)'+D(x,y)であり、xは0ではないと、
であるが、そうではない場合、ステップS2.13へ進むステップS2.12と、
x=width-1である場合、D(x,y)'=D(x,y-1)'+D(x,y)であり、そうではない場合、
x=width-1である場合、D(x,y)'=D(x,y-1)'+D(x,y)であり、そうではない場合、
であるステップS2.13と、
y<heightである場合、ステップS2.11に戻るが、そうではない場合、ステップS2.12またはS2.13によるD(x,y)'を出力するステップS2.14とをさらに含む。
y<heightである場合、ステップS2.11に戻るが、そうではない場合、ステップS2.12またはS2.13によるD(x,y)'を出力するステップS2.14とをさらに含む。
画像の水平方向に投影変換を行うので、水平方向において、深度値の連続性をできるだけ保持して、動き検索によるノイズからの大きな影響を避ける。従って、本発明において、スケールモーション(Scale Motion)に水平グラデーション値を用いずに深度値を得る。
人の目の視覚特性によると、視感覚が右目に頼る人は70%で、視感覚が左目に頼る人は20%である。そして、計算量を低減させるために、本発明において、DIBRにより画像を再構築する際に、一般性を失うことないように、ユーザーの頼らない目だけを再構築する。ここで、左目を黙認する。しかも、この場合、再構築されたフレームは品質が低下であるが、3Dの視覚効果に影響を与えない。従って、本実施形態におけるステップS3では、左目の画像を例として、即ち、ステップS3において、ステップS2による深度マップに基づいて、DIBRにより左目の画像を再構築する。
図2に示すように、その中に、Ccは入力された2D画像であり、Clは再構築された左目画像であり、Crは再構築された右目画像であり、fは目の焦点距離であり、txはベースライン距離であり、即ち、左右の目の間隔であり、Zは観察される画素の点が人の目から離れる距離であり、式(11)により算出する。Dzeroはゼロ平面の位置で、その値が[0,255]の範囲にあるが、本実施形態において、255になってもよい。式(9)(10)は、図2において、Cl、Cr、Ccにおける同一の画素の点に対応する投影の幾何学的関係である。式(9)(10)により、入力された2D画像の位置xcに対応する位置xlまたはxrの値を算出する。その後、 (xc,y)に位置する画素値を、対応する位置(xl,y)または(xr,y)にコピーする(本実施形態には位置(xl,y)にコピーする)。
即ち、ステップS3は、
以下の式により左目画像または右目画像を再構築するステップS3.1と、
以下の式により左目画像または右目画像を再構築するステップS3.1と、
(式の中に、xl、xrは、それぞれ左目画像及び右目画像において、入力された2D画像の位置xcに対応する位置であり、fは目の焦点距離であり、txは左右の目の間隔であり、Zは画素の点が人の目から離れる距離であり、Dzeroはゼロ平面の位置であり、その値は[0,255]の範囲にある。)
(xc,y)に位置する画素値を、対応する(xl,y)または(xr,y)にコピーするステップS3.2とを、さらに含む。
(xc,y)に位置する画素値を、対応する(xl,y)または(xr,y)にコピーするステップS3.2とを、さらに含む。
再構築された画像におけるのこぎり効果(saw teeth effect)を低減させるために、まず、入力された2D画像を水平方向にスケーリングすることで、投影する際の画像精度を向上させる。本実施形態において、水平方向に画像を元の4倍になるように引っ張って、上記した人の目の視覚関係により、行ごとのxlに対応する1/4の画像精度のx値を算出する。xlに対応するx値は画像範囲を超える場合、補間値によりxlに位置する画素値を得る。複数のxlに対応するx値は同じである場合、D(x,y)''の中の最大のxl値を採用し、他のxl位置の値は補間値により得る。xlに対応するx値は唯一である場合、xlに位置する画素値は入力された2D画像の、xに位置する画素値である。
上記した実施形態は本発明を説明したものに過ぎず、本発明は上述した実施の形態に限定されない。当業者であれば、本発明の主旨及び範囲から逸脱しない範囲で、種々の変更や変形が可能である。そのため、あらゆる同等の技術案は本発明の範囲に属し、本発明の保護しようとする範囲は請求の範囲により決定される。
本発明に係る画像の運動情報に基づく2Dから3Dへの変換方法を利用して得られた画像の再構築は、画像の品質が高く、3Dの視覚効果が優れる。これによって、2Dビデオ素材を3Dに自動的に変換する市場開発を進める上で重大な意義を持っている。
Claims (9)
- 運動推定の方法により、入力された2D画像における各画素の深度値を得るステップS1と、
各画素の輝度値により、前記各画素の深度値を加算し、前記の入力された2D画像の深度マップを得るステップS2と、
ステップS2により得られる深度マップにより、深度マップによる画像の再構築を行い、左目画像及び/又は右目画像を再構築するステップS3と、
ステップS4による左目画像及び右目画像を合成して出力し、3D画像を得るステップS4と、を含む、ことを特徴とする画像運動情報に基づく2Dから3Dへの変換方法。 - ステップS1は
運動推定の方法により、各画素の動きべクトルを算出するステップS1.1と、
S1.1により得られる動きべクトルを用い、各画素の深度値を算出するステップS1.2とをさらに含む、ことを特徴とする請求項1に記載の画像運動情報に基づく2Dから3Dへの変換方法。 - 前記運動推定の方法は、ダイヤモンド検索アルゴリズムである、ことを特徴とする請求項2に記載の画像運動情報に基づく2Dから3Dへの変換方法。
- ステップS2は
前記の入力された2D画像の一行目から、各画素の深度値を加算して、画素ごとの深度加算値D(x,y)'を得るステップS2.1と、
以下の式により、前記深度加算値を[0,255]の間に正規化して、正規化された深度値D(x,y)''を得るステップS2.2とを更に含む、ことを特徴とする請求項3に記載の画像運動情報に基づく2Dから3Dへの変換方法。
(式の中に、I(x,y)は(x,y)に位置する画素の輝度値であり、その値は[0,255]の範囲にあり、SCALEは輝度値のスケーリング係数であり、widthは前記の入力された2D画像の幅であり、heightは前記の入力された2D画像の高さであり、DEPTH_SCALEは深度値のスケーリング係数であり、
である。) - ステップS2.1は、
yは0である場合、D(x,y)'=0であるが、そうではない場合、ステップS2.12へ進むステップS2.11と、
yは奇数である場合、且つxは0であると、D(x,y)'=D(x,y-1)'+D(x,y)であって、xは0ではないと、
であるが、そうではない場合、ステップS2.13へ進むステップS2.12と、
x=width-1である場合、D(x,y)'=D(x,y-1)'+D(x,y)であるが、そうではない場合、
であるステップS2.13と、
y<heightである場合、ステップS2.11に戻るが、そうではない場合、ステップS2.12またはS2.13によるD(x,y)'を出力するステップS2.14とを更に含む、ことを特徴とする請求項4に記載の画像運動情報に基づく2Dから3Dへの変換方法。 - SCALE=0.1である、ことを特徴とする請求項5に記載の画像運動情報に基づく2Dから3Dへの変換方法。
- DEPTH_SCALE=120である、ことを特徴とする請求項5に記載の画像運動情報に基づく2Dから3Dへの変換方法。
- Dzero=255である、ことを特徴とする請求項8に記載の画像運動情報に基づく2Dから3Dへの変換方法。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/CN2011/001377 WO2013023325A1 (zh) | 2011-08-18 | 2011-08-18 | 基于图像运动信息的2d转3d方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014504468A true JP2014504468A (ja) | 2014-02-20 |
Family
ID=47714669
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013540213A Pending JP2014504468A (ja) | 2011-08-18 | 2011-08-18 | 画像運動情報に基づく2dから3dへの変換方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20130235155A1 (ja) |
| EP (1) | EP2629531A4 (ja) |
| JP (1) | JP2014504468A (ja) |
| CN (1) | CN103053165B (ja) |
| WO (1) | WO2013023325A1 (ja) |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9483836B2 (en) * | 2011-02-28 | 2016-11-01 | Sony Corporation | Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content |
| KR20130033125A (ko) * | 2011-09-26 | 2013-04-03 | 삼성전자주식회사 | 컨텐츠변환장치 및 컨텐츠변환방법 |
| CN104113745A (zh) | 2013-04-17 | 2014-10-22 | 咏传电子科技(上海)有限公司 | 显示装置及其影像显示方法 |
| JP5858254B2 (ja) * | 2013-06-06 | 2016-02-10 | ソニー株式会社 | 2次元コンテンツの3次元コンテンツへのリアルタイム変換の方法及び装置 |
| CN103533329B (zh) * | 2013-10-09 | 2016-04-27 | 上海大学 | 一种2d转3d的视频自动评估方法 |
| CN103826032B (zh) * | 2013-11-05 | 2017-03-15 | 四川长虹电器股份有限公司 | 深度图后期处理方法 |
| CN105989326B (zh) * | 2015-01-29 | 2020-03-03 | 北京三星通信技术研究有限公司 | 人眼三维位置信息的确定方法和装置 |
| CN109274951B (zh) * | 2017-07-13 | 2020-11-10 | 富泰华工业(深圳)有限公司 | 深度计算方法及其装置 |
| CN111369612B (zh) * | 2018-12-25 | 2023-11-24 | 北京欣奕华科技有限公司 | 一种三维点云图像生成方法及设备 |
| TWI784428B (zh) * | 2021-03-03 | 2022-11-21 | 宏碁股份有限公司 | 立體影像產生方法與使用該方法的電子裝置 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08331607A (ja) * | 1995-03-29 | 1996-12-13 | Sanyo Electric Co Ltd | 三次元表示画像生成方法 |
| JP2001016609A (ja) * | 1999-06-05 | 2001-01-19 | Soft Foo Deii:Kk | Mpegデータを用いた立体映像生成装置及び方法 |
| JP2007300169A (ja) * | 2006-04-27 | 2007-11-15 | Toshiba Corp | 動きベクトル検出器 |
| WO2010037512A1 (en) * | 2008-10-02 | 2010-04-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Intermediate view synthesis and multi-view data signal extraction |
| JP2010093816A (ja) * | 2008-10-09 | 2010-04-22 | Samsung Electronics Co Ltd | 視覚的関心に基づいた2次元映像の3次元映像変換器および変換方法 |
| JP2010239177A (ja) * | 2009-03-30 | 2010-10-21 | Toppan Printing Co Ltd | 画像生成方法 |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001103513A (ja) * | 1999-09-27 | 2001-04-13 | Sanyo Electric Co Ltd | 2次元映像を3次元映像に変換する方法 |
| WO2005083630A2 (en) * | 2004-02-17 | 2005-09-09 | Koninklijke Philips Electronics N.V. | Creating a depth map |
| CN101720480B (zh) * | 2007-07-03 | 2012-07-18 | 皇家飞利浦电子股份有限公司 | 计算深度图 |
| CN101271578B (zh) * | 2008-04-10 | 2010-06-02 | 清华大学 | 一种平面视频转立体视频技术中的深度序列生成方法 |
| KR101539935B1 (ko) * | 2008-06-24 | 2015-07-28 | 삼성전자주식회사 | 3차원 비디오 영상 처리 방법 및 장치 |
| KR20100135032A (ko) * | 2009-06-16 | 2010-12-24 | 삼성전자주식회사 | 2차원 영상의 3차원 영상 변환 장치 및 방법 |
| TWI564843B (zh) * | 2009-07-01 | 2017-01-01 | 晨星半導體股份有限公司 | 移動估測方法及移動估測裝置 |
| CN101631256B (zh) * | 2009-08-13 | 2011-02-09 | 浙江大学 | 用于三维电视系统中2d视频到3d视频的转换方法 |
| US8610758B2 (en) * | 2009-12-15 | 2013-12-17 | Himax Technologies Limited | Depth map generation for a video conversion system |
| CN102075780B (zh) * | 2011-02-25 | 2014-02-26 | 福建华映显示科技有限公司 | 立体影像产生装置及其方法 |
-
2011
- 2011-08-18 EP EP11870997.1A patent/EP2629531A4/en not_active Withdrawn
- 2011-08-18 US US13/818,101 patent/US20130235155A1/en not_active Abandoned
- 2011-08-18 CN CN201180028889.9A patent/CN103053165B/zh active Active
- 2011-08-18 WO PCT/CN2011/001377 patent/WO2013023325A1/zh not_active Ceased
- 2011-08-18 JP JP2013540213A patent/JP2014504468A/ja active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08331607A (ja) * | 1995-03-29 | 1996-12-13 | Sanyo Electric Co Ltd | 三次元表示画像生成方法 |
| JP2001016609A (ja) * | 1999-06-05 | 2001-01-19 | Soft Foo Deii:Kk | Mpegデータを用いた立体映像生成装置及び方法 |
| JP2007300169A (ja) * | 2006-04-27 | 2007-11-15 | Toshiba Corp | 動きベクトル検出器 |
| WO2010037512A1 (en) * | 2008-10-02 | 2010-04-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Intermediate view synthesis and multi-view data signal extraction |
| JP2012504805A (ja) * | 2008-10-02 | 2012-02-23 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 中間画像合成およびマルチビューデータ信号抽出 |
| JP2010093816A (ja) * | 2008-10-09 | 2010-04-22 | Samsung Electronics Co Ltd | 視覚的関心に基づいた2次元映像の3次元映像変換器および変換方法 |
| JP2010239177A (ja) * | 2009-03-30 | 2010-10-21 | Toppan Printing Co Ltd | 画像生成方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN103053165A (zh) | 2013-04-17 |
| US20130235155A1 (en) | 2013-09-12 |
| WO2013023325A1 (zh) | 2013-02-21 |
| CN103053165B (zh) | 2015-02-11 |
| EP2629531A1 (en) | 2013-08-21 |
| EP2629531A4 (en) | 2015-01-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2014504468A (ja) | 画像運動情報に基づく2dから3dへの変換方法 | |
| JP5153940B2 (ja) | 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法 | |
| JP5818514B2 (ja) | 画像処理装置および画像処理方法、プログラム | |
| US9401039B2 (en) | Image processing device, image processing method, program, and integrated circuit | |
| JP5665135B2 (ja) | 画像表示装置、画像生成装置、画像表示方法、画像生成方法、及びプログラム | |
| CN105144234A (zh) | 使用与示例相似图像相关联的示例近似深度映射图对输入图像生成深度映射图 | |
| CN102572465A (zh) | 用于使用深度图信息的多视图像生成的装置和方法 | |
| CN102098528B (zh) | 一种平面图像的立体转换方法及装置 | |
| WO2011033673A1 (ja) | 画像処理装置 | |
| JP5755571B2 (ja) | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 | |
| KR20140096532A (ko) | 디지털 홀로그램 생성 장치 및 그 방법 | |
| CN101873508B (zh) | 基于改进bp算法的中间视合成方法 | |
| CN103238168A (zh) | 图像处理装置、图像处理方法及图像处理程序 | |
| CN114640885A (zh) | 视频插帧方法、训练方法、装置和电子设备 | |
| CN118447143A (zh) | 三维模型重建方法、装置、介质及计算机设备 | |
| JP5691965B2 (ja) | 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム | |
| JP5692051B2 (ja) | 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム | |
| JP5464129B2 (ja) | 画像処理装置および視差情報生成装置 | |
| JP5304758B2 (ja) | 多視点画像作成装置及び多視点画像作成方法並びに多視点画像表示システム | |
| CN103200417B (zh) | 一种2d转3d的方法 | |
| JP2013513172A (ja) | イメージベースドビジュアルハルにおける凹状表面のモデリング | |
| CN107610070B (zh) | 基于三摄像采集的自由立体匹配方法 | |
| CN115082636B (zh) | 基于混合高斯网络的单图像三维重建方法及设备 | |
| KR20150037203A (ko) | 3차원 입체 영상용 깊이지도 보정장치 및 보정방법 | |
| JP4419139B2 (ja) | 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140625 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140708 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141209 |