JP2012530998A - 相対的奥行きを持たせた立体画像への3dオブジェクトの組み入れ - Google Patents
相対的奥行きを持たせた立体画像への3dオブジェクトの組み入れ Download PDFInfo
- Publication number
- JP2012530998A JP2012530998A JP2012517664A JP2012517664A JP2012530998A JP 2012530998 A JP2012530998 A JP 2012530998A JP 2012517664 A JP2012517664 A JP 2012517664A JP 2012517664 A JP2012517664 A JP 2012517664A JP 2012530998 A JP2012530998 A JP 2012530998A
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth data
- pixel separation
- stereoscopic
- offset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000926 separation method Methods 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000009877 rendering Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 11
- 238000003860 storage Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 14
- 239000011521 glass Substances 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 7
- 239000002131 composite material Substances 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000010287 polarization Effects 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
【選択図】図1
Description
本願は、2009年6月24日に出願され、その全体が本願明細書において参照により援用されている米国特許仮出願第61/220,007号に基づく優先権を主張する。
本発明は、3次元(3D)画像化に関し、特に、奥行きを知覚できるようなオブジェクトの処理に関する。
これらの従来からある技術は、すでに存在する3D画像に適した技術ではない。3D空間におけるキャプション付けを勝手にレンダリングすることにより、バックグラウンド(例えば、すでに存在するフィーチャの後ろ)にキャプション付けが生じ、フォアグラウンド(例えば、すでに存在するフィーチャの前)にレンダリングされる結果となるか、又は、逆にフォアグラウンドにキャプション付けが生じ、バックグラウンドにレンダリングされる結果となる。言い換えれば、キャプション付けは、オクルージョンによりフィーチャの前に現れる一方、両目同士の視差により同じフィーチャの後ろに現れることがある。この矛盾により、3D画像における奥行の像を壊すと共に、視聴者に眼精疲労をもたらす。
このような落とし穴は、製造後工程で各3Dキャプション付けの挿入について目視分析を人為的に手作業で行うことにより回避することができる。これは、挿入したものそれぞれについて、人がその適正を確認するものであるといえる。容易に想像できるであろうが、この工程は時間がかかり、コスト高となり、人為的エラーを伴いがちである。人為的な目視分析は、記録済みのコンテントに対しては現実的でなく、生放送に対しては不可能である。
さらに、人為的な目視分析は具体的に大きさの決まった表示装置に対して行われ、しばしば、異なる表示装置に対して予期せぬ結果を生じることがある。知覚される奥行きはピクセル視差を伴って非線形であり、ピクセル視差は、ピクセル分離オフセット及び各表示装置ピクセル分解能の両方の関数となる。従って、同じピクセル分離オフセットを用いた場合であっても、挿入したキャプション付けが好ましくない位置に現れることがある。例えば、異なる表示装置上では、視聴者の目から逸脱してしまう無限遠を超えたところに、キャプション付けが現れることがある。左右の目に映る画像間のピクセル視差が、一般に大人では65ミリメータである、視聴者の眼間距離より大きいとき無限遠を超えてキャプション付けが現れる。予期せぬ結果として、視聴者の後ろのような、表示を行うことができない禁止位置が含まれる。
上記のとおり、自動的な及び/又は表示装置と独立した位置への、3Dキャプション付け、及び一般的な3Dオブジェクトの挿入は、従来の2D及び3D技術に多大な利益をもたらすことが分かる。
本発明の他の実施の形態において、少なくともキャプション部分について、視聴者の距離に対する割合としての奥行きデータを提供する。この奥行きデータは、好ましい知覚される奥行きを十分得るためにキャプションの第1の画像と第2の画像との間の適切なピクセル分離オフセットを定めるために用いられる。キャプションの第1の画像と第2の画像とを、定めたピクセル分離オフセットと共に、立体画像又は画像ビットストリームに挿入する。具体的な実施の形態において、与えられた奥行きデータを、表示する表示装置にあわせて正規化する(例えば、ミリメートルあたり1ピクセルの分解能、1メータの幅)。
本発明のさらに他の実施の形態において、立体画像にオブジェクトを挿入する方法を提供する。立体画像は(モバイルフォン、コンピュータ、テレビジョン、映写機等のような)第1の再生装置に直接又は間接に伝送される。少なくとも1つのオブジェクトについて、視聴者の距離に対する割合としての知覚される奥行きデータもこの第1の再生装置に伝送される。第1の再生装置は、知覚される奥行きデータから第1のピクセル分離オフセットを計算することができる。立体画像及び知覚される奥行きデータは、第2の再生装置に直接又は間接に伝送される。この第2の再生装置は、知覚される奥行きデータから第2の分離オフセットを計算することができる。第1の再生装置と第2の再生装置とが異なるスクリーン幅の寸法又はピクセル分離能を持つ場合、第1のピクセル分離オフセットは、第2のピクセル分離オフセットと等しくならない。
本発明の他の実施の形態における方法では、3D立体画像中にオブジェクトをレンダリングするために正規化された奥行きデータを生成する。この方法は、立体画像内のフィーチャを、例えば、区分化することにより識別することを含む。立体画像における(ピクセル分離オフセットのような)空間的オフセットはフィーチャに対して定められる。複数の空間的オフセットは、任意的に立体画像の視差マップを形成するために用いることができる。空間的オフセットは知覚される奥行きと相関関係があり、従って、3D空間におけるフィーチャの位置と占有する量を定めることができる。この方法はさらに、立体画像に挿入する立体的なオブジェクト画像のジオメトリを定めるステップを含む。1以上のオブジェクトの空間的オフセットを、占有された量部分を酒、及び、他の配置制限を満たすと共に、立体的なオブジェクト画像を3D空間に配置するために計算する。計算した1以上のオブジェクトの空間的オフセットの各々は、表示装置とは独立に正規化することができ、視聴者の距離に対する割合として、対応する知覚される奥行きとして表される。各知覚される奥行きのデータストリームを出力することができる。個別の実施の形態において、立体画像の奥行きマップは、さらに、知覚される奥行き、それに伴い、フィーチャの位置及び占有量をより正確に調整するために用いられる。
本発明の他の実施の形態において、出力信号を生成するための装置は、入力端子、出力端子、及び、この入力端子と出力端子とに接続された信号処理回路とを含んでいる。信号処理回路は、少なくとも1つのオブジェクトについて、視聴者の距離に対する割合として、知覚される奥行きのデータを受け取るように構成されている。信号処理回路は、少なくとも1つのオブジェクトの左目オブジェクト画像と右目オブジェクト画像とをそれぞれ立体画像の左目画像と右目画像に挿入する。左目オブジェクト画像と右目オブジェクト画像とはピクセル分離オフセット分だけずらされている。
本発明の他の実施の形態において、オブジェクトレンダリングのために奥行きのデータを生成するための装置は、入力端子、出力端子、及び、この入力端子と出力端子とに接続された信号処理回路とを含んでいる。信号処理回路は立体画像内のフィーチャを識別し、フィーチャの空間的オフセットを定めるように構成されている。空間的オフセットは、任意的に、信号処理回路によって視差マップを形成するために用いることができる。信号処理回路は、さらに、立体画像に挿入する立体的なオブジェクト画像のジオメトリを定め、占有する量及び他の配置制限を避ける一方で、3D空間における立体的なオブジェクト画像を配置するために1以上のオブジェクト空間的オフセットを計算するよう構成されている。計算した1以上のオブジェクトの空間的オフセットの各々は、表示装置とは独立に正規化することができ、視聴者の距離に対する割合として、対応する知覚される奥行きとして表される。各知覚される奥行きのデータストリームは、出力端子を通して出力することができる。
本発明の他の実施の形態として、命令のプログラムを記録する記憶媒体を提供する。プログラムは、出力を生成する方法を実施するために、表示装置により実行することができる。この方法は、少なくとも1つのオブジェクトについて、視聴者の距離に対する割合として、正規化された知覚される奥行きデータを受け取るステップを含んでいる。正規化された知覚される奥行きデータと表示寸法から表示装置に対するピクセル分離オフセットを計算する。少なくとも1つのオブジェクトの第1のオブジェクト画像と第2のオブジェクト画像とが立体画像の第1の画像と第2の画像とに挿入される。第1のオブジェクト画像と第2のオブジェクト画像とはピクセル分離オフセット分だけずらされる。表示装置は挿入されたオブジェクトと共に視覚的に立体画像を出力する。
本発明の種々の対象、特徴、及び利点は、以下の詳細な説明及び添付図により十分理解できるであろう。
図1は、本発明の実施の形態による3D位置調整システム100を示す。位置データは、オブジェクトを目的の3D画像にレンダリングするときにそのオブジェクトをどこに配置するかを定めるために用いられる。オブジェクトには、サブタイトルテキストクローズドキャプショニング、オンスクリーンインフォメーションバー、スクロールニュースティッカー、テレビジョンプログラムガイド、スコアボード、オンスクリーン再生装置制御(任意的に表示されたタッチスクリーンコントロール)、チャンネルロゴオーバーレイ、警告(heads−up)表示(HUD)情報又は他の図形オブジェクト。再生中に装置に依存させないために、パーセンテージ位置システムを用いる。3D空間における位置は、スクリーン幅(x軸)、スクリーン高さ(y軸)、及びスクリーンから視聴者までの距離(z軸)のパーセンテージとして表される。
例えば、2048ピクセル幅の画像中の、x軸上での左右の目の画像間での19ピクセルの正の視差を持つ立体的なオブジェクトは、画像幅の約0.927%(19/2048)を表す。その結果、例えば、立体的なオブジェクトはスクリーン平面の前に、視聴者とスクリーンとの中間に(例えば、スクリーン平面から視聴者までの距離の50%の所に)に現れる。従って、7メートル幅のスクリーンの場合、立体的なオブジェクトは、本発明の実施の形態において、スクリーン幅の0.927%、64.94ミリメータ(7メートル×0.927%)、即ち約27ピクセル(1998ピクセル水平幅と仮定)だけ分離することができる。この場合もやはり、結果として、図2Aの三角法的関係と図2B中の点201とで具体化される、視聴者とスクリーンとのほぼ中程に生じる立体的なオブジェクトとなる。一方、スクリーン幅の0.951%(19/1998)を意味する、7メートル幅のスクリーン上での正の19ピクセル視差では、図2B中の点203に示すような明らかにスクリーン平面により近いように奥行きが知覚されるような結果となる。
上記例示から分かるように、比率位置調整では、異なる装置に対して奥行きの割合が保持されたが、絶対ピクセル視差による調整では保持されなかった。表示装置の大きさとは無関係にz軸上での知覚される奥行きは一定に維持されることが望ましい。言い換えれば、異なる再生装置で見るときも、ピクセル視差が変わるかも知れないが、3D画像は一定にすべきである。実際には、1つの再生装置と他の再生装置とでは、ピクセル視差の変化は一般に非線形となる。
3D位置調整システム100において視聴者の距離が大きく変化するので、奥行きの知覚が再生装置に依存しないことは好都合なことである。例えば、視聴者の距離は、携帯用デバイス(例えば、携帯電話、携帯端末(PDA)、携帯メディアプレーヤー、アップルのビデオiPod、その他)に対して約15センチメートルから1メートルの範囲で変化する。視聴者の距離は、ラップトップコンピュータ、デスクトップコンピュータ、テレビジョン、及びアーケードゲームのディスプレーに対して約0.5メートルから約5メートルの範囲で変化する。公共の場において、映写機、スタジアムディスプレー、及び広告用掲示板に対して、視聴者の距離は、約3メートルから約100メートル又はそれ以上の範囲で変化する。再生装置は、必然的に、対象となる視聴者の距離に応じて表示サイズが大きく異なる。他の再生装置と比べて1つのスクリーン幅は、5倍、10倍、あるいは100倍以上になることがある。
本発明の1つの実施の形態によれば、z軸の位置調整値(奥行き)は、スクリーン平面からの視聴者の距離のパーセンテージZpvとして定めることができる。このように、奥行き調整値は、デバイスと無関係とすることができる。例えば、図1に戻って、+50%(点101)における第1のオブジェクトは、常に、スクリーン平面と視聴者との間の中間位置にて知覚される。0%(点103)及び−50%(点105)の第2及び第3のオブジェクトは、常に、第1のオブジェクトの距離のそれぞれ2倍の位置(スクリーン平面上)及び3倍の位置(スクリーン平面の後方)になる。他の再生装置と比較して別の再生装置に対しては、視聴者がスクリーン平面に近づくにつれて、オブジェクトは、絶対値で視聴者に近づくように見える。スクリーン平面から視聴者が遠ざかるにつれて、オブジェクトは、遠ざかるように見える。しかし、重要なことは、オブジェクトは視聴者の距離に対して、同じ割合の位置に見えることである。
特別な実施の形態において、Zpvを再生装置で用いることのできる値に変換するために、奥行き配置のために用いられる想定される表示装置の物理的なスクリーン幅wsは既知であるか又は伝達されてくる。言い換えれば、再生装置は、少なくともx、y、Zpv、及びwsの値として位置データを受け取る。受け取った情報に基づき、再生装置は、奥行きZpvを知覚できるように、それ自体の寸法に対するx軸上の適切なピクセル視差を計算する。
他の実施の形態において、ピクセル分離能が1ミリメートルとなる1000ピクセル幅のスクリーンのような、正規化した1メートルのスクリーン幅が用いられる。正規化することにより、オブジェクトに適切に奥行きを持たせるために再生装置はスクリーン幅を知るだけでよく、組み立てソフトウェアは(例えば、オブジェクトの奥行きを定めるために用いる物理的なスクリーンではなく)正規化したスクリーン幅を用いて実質的に変換させることができるという利点をもたらす。つまり、ws値は、アプリオリに知られているので伝達する必要がない。
当然のことながら、Zpvのこの数値表現では、特定の再生装置、基本的には小さく分解能の低い古い装置の能力を超える値が生み出されることがある。例えば、携帯電話のビデオ表示は26ミリメートル幅(又はそれ以下)の小ささとなることがあり、したがって、最大奥行きが+29%に制限される。最新の再生装置は、はるかに改善され、深い奥行きにレンダリングする能力があるが、このような装置でも視聴者の距離の+100%を達成することはできない。+100%の奥行きはほとんど求められることはないので、この制限は実質的に障害とはならない。視聴者に非常に近い場所のオブジェクトのピクセル視差では、視聴者がオブジェクトに焦点をあわせ1つに収束させることが難しくなる。
加えて、Zpvの数値表現、つまり視聴者の距離に対するパーセンテージでは、無限遠平面又はその向こう側での奥行きを適切に表現することができない。幸いにして視聴者の視線軸が平行になったときオブジェクトは無限遠にあるように見えるので、この欠点は解消される。したがって、無限遠平面は、ほぼ眼間距離を負にした値(大人で約−65ミリメートル)に定めることができる。正規化した1ピクセル/ミリメートのスクリーンでは、約−65ピクセルのピクセル分離オフセットを持たせることで無限遠平面を確立することができる。
図3に示すように正規化したスクリーンに3D位置調整レイアウト300を用いることで、再生装置でも合成装置でも、スクリーン幅に対するパーセントとしてのx、スクリーン高さに対するパーセントとしてのy、知覚する正規化した奥行きに対するパーセントとしてのzを与えることにより、キャプション付けのようなオブジェクトを3D画像に適切に挿入することができる。そして、正規化したピクセル分離オフセットSpを、制限なしに、少なくとも以下のようにして計算することができる。
図4は、例えば、本発明実施の形態による合成装置による、3Dオブジェクトの配置の簡単化したフロー線図400を示す。ステップ401で、すでに存在する立体画像、すなわちターゲット画像を受け取る。ステップ403で、例えば、各立体画像ペア(例えば左目画像及び右目画像)について区分化による解析を組み込むことができ、画像のフィーチャの位置と範囲が特定される。区分化による解析では、各フィーチャ(例えば、画像中にすでに存在するオブジェクト)を色で分割し、区分化したマップを形成するためにはっきりと異なる各領域の境界を定める。
次に、ステップ405で、このフィーチャの空間的オフセットを決定する。これは、左目画像の区分化したマップを右目画像と比較することにより行うことができる。左目画像及び右目画像の区分化したマップは類似しており、したがってフィーチャすなわちこのペアの内の1つのマップ中の区分化した形は、当然のことながらそれに対応するフィーチャの形と位置に必然的に関連している。ペアとなったマップは、比較され、ペア中のお互いに対応するフィーチャ同士のx軸空間的オフセットを定める。
このような空間的オフセットは任意的ステップ407で用いられ、リーガルマップに展開する。リーガルマップにより、オブジェクトの配置のために使用可能な3Dの量が定まる。すなわち、リーガルマップは、フィーチャにより占有されない量を示す。このリーガルマップは、ターゲット画像に配置すべきオブジェクトの残留期間全体にわたって動的に更新することができる。
ステップ409及び411で、配置すべきオブジェクトを受け取り境界を定めるジオメトリを決定する。簡単な場合は、以下に図5Fについて説明するように、オブジェクトジオメトリは、必要な間隔(例えば、ターゲット画像におけるオブジェクトとフィーチャとの間の最低距離)を持たせて全体のオブジェクトの周りの簡単なバウンディングボックス(bounding box)で定めることができる。複雑な場合は、オブジェクトジオメトリは1つのバウンディングボックスより細かい定義を必要とすることがある。例えば、オブジェクトジオメトリは、以下に図5Eについて説明するように、各文字ごとにバウンディングボックスにより特徴付けることができる。
次に、図4のステップ413で、オブジェクトは簡単な配置規則に従い3D量に配置され、配置規則は人の視覚系で眼精疲労を最小限にするよう設計することが望ましい。簡単な配置規則は、一般に以下の特性の内の1以上を有する。すなわち、元の画像におけるフィーチャとの衝突がないこと、オブジェクトは常に前方にあること(代替的にオブジェクトは常に後方にあること)、オブジェクトジオメトリは簡単であること、テキスト又はオブジェクトサイズであること、奥行きの最大値及び最小値であること、及び、静的な配置であることである。
簡単な配置規則は、基点と階層的選択肢のセットとすることができる。例えばオブジェクトをスクリーン平面の中央スクリーンにする簡単な配置規則は、
基点: 0:x=0 y=0 z=0
選択肢: 1:x=−20
2:x=+20
3:x<0
4:x>0
5:0<z≦50
5a:x<0
5b:x>0
6:エラー(Error)
位置x=0,y=0、z=0が不可能なら、20%左が望ましく、20%右、左の任意位置、右の任意位置、最大50%までの前方の任意位置がそれに続き、次いで、左に進み、そして最後に右に進む。このうちのどの位置も不可能である場合はエラーが返される。
ステップ415で、ステップ413に代わって、又は413に加えて、任意的に複合的配置規則が続く。複合的配置規則は、元の画像におけるフィーチャの動きに基づいて動かす動的な変化を伴うことができる。複合的配置規則では、一般に、単純なバウンディングボックス(bounding box)より厳密な定義が必要であり、従って複雑なオブジェクトジオメトリがしばしば用いられる。実際には、複合的配置において、オブジェクトジオメトリは、以下に説明するように図5Fに示したような複合的配置での優先傾向を満足するためにオブジェクトのモーフィングのために元のジオメトリとは異なることがある。
複合的配置は、以下の特性、すなわち動的規則、元の画像におけるオブジェクトの許容される衝突、許容されるオクルージョン、複雑なオブジェクトジオメトリ、および動的配置、の内の1つ以上を有するものとして一般化することができる。複合的配置は、(i)元の画像中のフィーチャの後ろから(ii)フィーチャの前にあちこち移動し視聴者に近づいてくるように見える動的なグラフィックオブジェクトである。この例では、動的なグラフィックオブジェクトは、動的な拡大縮小、回転、および移動を行い、オブジェクトジオメトリも動的となる。これはまず、その場面における元のフィーチャと衝突し、オクルードされ、元のフィーチャを避けオクルードする。
最後に、図4のステップ417で、オブジェクトの配置を反映する位置値を出力することができる。位置値はスクリーン幅に対するパーセント、スクリーン高さに対するパーセント、知覚される奥行きに対するパーセントで表される。知覚される奥行きに対するパーセントは、上演する表示装置にあわせて正規化することができる。特別な実施の形態において、上演する表示装置は、ピクセルあたり1ミリメートルの幅の分解能を持つ、1000ピクセル幅で正規化したスクリーンで特徴付けられる。
当然のことながら、ここに記載したフロー線図400は概説のためのものであり、したがって、種々の修正又は変更が当業者から提案されるであろう。代替的実施の形態において、フロー線図400に記載したステップ図4とは異なる順序とすることができ、ステップを追加することができ、及び/又はいくつかのステップを省略することができる。例えば、ステップ401及び409は、実際には、実質的に同時に、又は、逆の順序で実行することができる。このような修正及び変更は本明細書の範囲に含まれるものとする。
図5A〜5Fは、本発明の実施の形態による3Dオブジェクトの配置についての簡単化した上記フロー線図400の典型的な結果を示す。図5Aはステップ401で受け取ることができるすでに存在する立体画像の左目からの画像と右目からの画像を示す。ステップ403に記載した区分化したマップは図5Bに示され、二つの画像の分離視差を示すため図5Cで重ね合わせた。単純なジオメトリを用いる場合のステップ411に対応する、単純な境界線、1つのボックスとともに「テキストオブジェクト」を図5Dに示す。比較のために図5Eに、複合的オブジェクトジオメトリによる「テキストオブジェクト」を示し、ここでは、境界線が各文字について厳格に定義されている。ステップ415について、複合的配置と複合的ジオメトリの両方を用いた場合、図5Fに示すように、「テキストオブジェクト」を変形し、動き特性を表すことができる。
フロー線図400には示されていないが、合成装置による3Dオブジェクトの配置では、例えば、本発明の実施の形態に従い奥行きマップをさらに用いることができる。奥行きマップは、空間的オフセット分析によってオブジェクトの3D形状を正確に定めるので、特に複数視点の3D画像(例えば、ポリスコーピック(polyscopic)画像)に対して、すでに存在する画像におけるフィーチャの奥行きを奥行きマップによって精緻に決定することができる。図6Aは、図4Aの立体画像ペアの奥行きマップ600の一例である。奥行きマップ600はモノクロームであり奥行きが輝度で表されている。輝度が高いところは、視聴者に近づいてくる正のzであり、輝度が低いところは、視聴者から離れてゆく負のzである。奥行きマップは、画像の各部における測定した奥行きの精度を定める対応する「信頼度」値を含んでいる。奥行きマップ600はそれだけで、元の画像中に挿入したオブジェクトと元の画像中のフィーチャとの間の衝突を避ける可能性を改善するために、その信頼度値をオブジェクトの規則の要因とさせる。
図6Bは、奥行きマップによる区分分析を組み合わせて使用したものを示す。上述のように、奥行きマップ600では、改善された3D形状の決定をおこなう。しかし、区分視差マップにより、元の画像のフィーチャの知覚される奥行きがより正確に定まる。したがって、元の3D画像の品質の高い分析のために区分視差マップ及び区分奥行きマップの両方を組み合わせることは、好都合なことである。結果として、区分化された境界の内側に、奥行きマップにより形状が定められる。奥行きマップの信頼値が効率的に飛躍的に改善される。
本発明の他の実施の形態において、正規化した奥行きの技法は再生装置又は合成装置に適用され、快適な視覚奥行き範囲に、既存の立体画像を調整する。言い換えれば、スクリーン平面の前方及び後方へ可能な奥行きは、個々の好み(例えば、立体芸術家の好み、又は再生装置の最終ユーザーの好み)によるのみならず表示サイズに対して調整することが可能である。快適な視覚奥行き範囲が個々の好みによるにもかかわらず、合理的で概略的な規則が以下のように続く。
(i)非常に大きなスクリーン(例えば、シネマ/アイマックス)。前方のすべての奥行きが利用可能であり、無限遠がスクリーン平面となり正の最大奥行きが視聴者の距離の60%となる。
(ii)大きなスクリーン(例えば、シネマ)。スクリーン平面の前方の利用可能な奥行きが後方より大きい(例えば前方は約2/3の奥行き、後方は1/3奥行き)。
(iii)小さなスクリーン(例えば、テレビジョン、ホームシアター)。スクリーン平面の後方の利用可能な奥行きが前方より大きい(例えば前方は約1/3の奥行き、後方は2/3奥行き)。
(iv)非常に小さなスクリーン(例えば、携帯電話の表示、又は携帯テレビジョン)。スクリーンの前方には利用可能な正方向奥行きはなく、スクリーン平面のはるか後方に無限遠がある。
上記規則を説明するための一例として、元の立体画像が無限遠点Zni=−100を持っていて、最大正方向の奥行きがZn=−40(そのシーンでのトータル奥行きはZ=|Zn−Zni|=60となる)であると仮定すると、無限遠点での修正した奥行き位置、Zciは以下のようになる。
(i)非常に大きなスクリーン。Zci=Zni+100、無限遠がスクリーン平面となり、最大でオブジェクトは視聴者の距離の60%までスクリーンから飛び出す。
(ii)大きなスクリーン。Zci=Zni+80、無限遠がスクリーン平面の後方20%となり、最大でオブジェクトは視聴者の距離の40%までスクリーンから飛び出す。
(iii)小さなスクリーンZci=Zni+60、無限遠がスクリーン平面の後方40%となり、最大でオブジェクトは視聴者の距離の20%までスクリーンから飛び出す。
(iv)非常に小さなスクリーン。Zci=Zni+40、無限遠がスクリーン平面の後方60%となり、オブジェクトはスクリーンから飛び出すことはない。
立体画像を調整する装置は、メタデータ中の正規化した奥行き値、画像を調整すべきであると表示したフラグ、及び、複数のあらかじめ定めたサイズ表示についての好ましいシフト調整について記述したメタデータの内の1つ以上を用いることができる。これらのあらかじめ定めたサイズに含まれない表示サイズについては、装置は最も近いあらかじめ定めたサイズを用いて中間的な調整シフト値を補間(例えば、重み付け比例配分、平均化、平均化と端数切捨て、又は、メタデータで特定した特別な重み付け)するか、あるいは、単純にもっとも近いあらかじめ定めたサイズに関連する値を用いることができる。このような調整技術を用いるとき、走査した左目画像及び右目画像の全体が提示されなければならない。走査を行うことは、調整するシフト値の極端な2つの点でシフト値を調整することができる(例えば、意図する再生装置の最大スクリーンと最小スクリーン)。
加えて、既存の立体画像の上述の調整は、立体画像キャプチャーにおける欠陥を修正するために用いることができる。例えば、収束型の撮影の場合、2つのカメラの画像化平面に相互に角度をもたせ、カメラを対象となるオブジェクトに収束させる。したがって収束点は、入力カメラの物理的な配置に依存するが、再生する場合のオブジェクトの視聴者からの距離は、スクリーン間での距離に依存する。収束は、相互に左右の画像を水平にシフトすることで、ポストプロダクションにおいて調整することができる。
本発明の他の実施の形態として、命令プログラムを記録した記憶媒体が提供される。この記憶媒体は、ランダムアクセスメモリー(RAM)、SDRAM、リードオンリーメモリー(ROM)、プログラマブルリードオンリーメモリー(PROM)、電気的消去可能プログラマブルリードオンリーメモリー(EEPROM)、フラッシュメモリー、光ディスク(例えば、CD−ROM、CD−RW、DVD、DVD−RW、ブルーレイディスク、ウルトラデンシティーオプティカル(UDO)ディスク、コンパクトディスク、その他)、磁気媒体(例えば、磁気テープ、フロッピィーディスク、ハードディスク、その他)、紙テープ(例えば、パンチカード)、ホログラフィックストレージ、及び分子メモリーの内の少なくとも1つとすることができる。プログラムは、表示装置で実行することができ、視覚的出力を生じさせる方法を実施する。この方法には、少なくとも1つのオブジェクトに対する視聴者の距離の部分として知覚される正規化した奥行きデータを受け取るステップが含まれる。ピクセル分離オフセットは、正規化した奥行きデータから、表示装置寸法に応じて計算する。この少なくとも1つのオブジェクトの1番目と2番目のオブジェクト画像は、立体画像の1番目と2番目の画像中に挿入される。この1番目と2番目のオブジェクト画像は、ピクセル分離オフセット分だけずらされる。表示装置は、挿入したオブジェクトと一緒に立体画像を視覚的に出力する。
図7は、本発明の実施の形態による、2台映写機システム700の概略図を示す。システム700による立体的な映写技術には、以下のいずれかを含むことができる。
(i)アナグリフ・・・左右の目のチャンネル画像分離が、2色、一般に一方の目には赤、他方の目にはシアン、のフィルターにて行われる。一方の目には第1のフィルター(例えば、赤色フィルター)、他方の目には第2のフィルター(例えば、シアンフィルター)を有するメガネ類が必要となる。
(ii)直線偏光・・・左右の目のチャンネル画像分離が、映写機で、垂直方向の直線偏光板を介して映写機で一方の目の画像をフィルターすることにより、水平方向の直線偏光板を介して他方の目の画像をフィルターすることにより行われる。一方の目には垂直方向の直線偏光板を、他方の目には水平方向の直線偏光板を有するメガネ類が必要となる。
(iii)円偏光・・・左右の目のチャンネル画像分離が、映写機で、垂直方向の左旋円偏光板を介して映写機で一方の目の画像をフィルターすることにより、水平方向の右旋円偏光板を介して他方の目の画像をフィルターすることにより行われる。一方の目には左旋円偏光板を、他方の目には右旋円偏光板を有するメガネ類が必要となる。
(iv)シャッターグラス・・・左右の目のチャンネル画像分離が、画像を時間多重化することにより行われる。映写機のフレームレートに同期させてレンズを電子的に開閉するシャッターグラスを有するメガネ類が必要となる。一般に、このシャッターグラスのタイミングを整えるために、無線信号又は赤外線信号が用いられる。
(v)スペクトル分離・・・左右の目のチャンネル画像分離が、映写機で、スペクトル的にフィルターすることにより行われる。左右の目の画像へのフィルターで、各々、赤、緑、及び青のスペクトル部分を通り、フルカラー画像となる。左目フィルターの帯域通過スペクトルは、右目フィルターの帯域通過スペクトルを補完するものとなる。映写機で用いられるものと同じ一般的スペクトル特性を持つフィルターを有するメガネ類が必要となる。
システム700において、ディスクドライブ701中に記録された(又は適切なネットワークから受け取った、又は、送信を受け取った)データから、左右の目のチャンネル画像をサーバー703により抽出、又はデコード、又は検索、又は再構築する。同様に、左右の目のチャンネル画像に挿入する立体的なオブジェクトと、それに対応する比例的な位置の値とは、ディスクドライブ701中に記録する(又は適切なネットワークから受け取る、又は、送信を受け取る)ことができる。サーバー703は、受け取った正規化された奥行きのような、1以上の比例的な位置の値に基づきオブジェクトのピクセル分離オフセットを計算し、そのようなオフセットを持たせてチャンネル画像にオブジェクトに挿入する。
挿入の後、左目及び右目のチャンネル画像は、左右のチャンネル映写機705及び707からスクリーン709に映写され、3Dグラス711を介して見られる。3D映写機システム700が、左右の目のチャンネルを分離するために直線偏光又は円偏光を用いる場合は、スクリーン709は偏光を保持する。スクリーン709として有効な偏光を保持するタイプのスクリーンは、その特徴的な色合いから、一般に「シルバースクリーン」と呼ばれている。
上記システム700は、は2つの映写機システム(一方は左目そして他方は右目に対応)として記載したが、単一のDシネマ映写機(例えば、ディジタル映写機)を用いることもできる。代替的な単一のDシネマ映写機システムにおいて、左右の目のチャンネル画像は時間多重化される。映写フィルターを必要としないシャッターグラスの場合を除いて、このことは、映写フィルターは左右で多重化周波数を変更しなければならないことを意味する。これは、多重化周波数と同期させたDシネマ映写機のフィルターホイール、又は、電子的な切り替えフィルターにより行うことができる。
当然のことながら、ディスクドライブ701、適切なネットワーク(例えば、インターネット、WAN、LAN、WiFi、ファイバー、ビデオケーブル、衛星放送、その他)、又は、複数の適切なネットワークにより、比例的な位置の値のような同じデータを、連続的に、又は同時に、又は要求に応じて、複数の再生装置に送ることができる。再生装置の表示寸法は変更することができ、本発明の実施の形態により著しく変化することがある。例えば、はるかに大きい家庭のテレビジョンセットと同じ画像及びオブジェクト挿入データを表示装置を組み込んだ携帯電話は、受け取ることができ、大きさの差にかかわらす、ピクセル分離オフセットを適切に調整することにより、同じ表示結果を達成することができる。
本発明は、ここに記載した構成要素(本発明の種々の部品又は特徴)及び均等物を、適切に具備、することができる。
さらに、ここに概説した発明は、明示的に記載されているかどうかにかかわらず、構成要素の一部が欠けていても実施することができる。この記載に照らして、本発明について多くの修正又は変更が可能である。したがって、添付の特許請求の範囲内で、ここに具体的に記載したものとは異なるように実施することができることは理解されよう。
Claims (15)
- 少なくとも1つのオブジェクトを表示装置に立体画像としてレンダリングする方法であって、
前記少なくとも1つのオブジェクトについて視聴者の距離に対する割合として知覚される奥行きデータを受け取るステップと、
前記知覚される奥行きデータから、前記表示装置に対するピクセル分離オフセットを計算するステップと、
前記少なくとも1つのオブジェクトの第1のオブジェクト画像を前記立体画像の第1の画像に挿入するステップと、
前記少なくとも1つのオブジェクトの第2のオブジェクト画像を前記立体画像の第2の画像に挿入するステップと、
を具備し、
前記第1のオブジェクト画像と前記第2のオブジェクト画像とは、前記ピクセル分離オフセット分だけずれていることを特徴とする、
方法。 - 前記少なくとも1つのオブジェクトはキャプション付けテキストであることを特徴とする請求項1に記載の方法。
- 前記第1のオブジェクト画像と前記第1の画像は左目画像であり、前記第2のオブジェクト画像と前記第2の画像は右目画像であることを特徴とする請求項1に記載の方法。
- 前記挿入するステップの後、データストリーム中に前記第1の画像及び前記第2の画像を出力するステップをさらに具備することを特徴とする請求項1に記載の方法。
- 前記知覚される奥行きデータは、ミリメートル幅あたり1ピクセルに正規化されることを特徴とする請求項1に記載の方法。
- 前記表示装置は、携帯電話、携帯メディアプレーヤー、テレビジョン、コンピュータモニタ、及び映写機の内の少なくとも1つであることを特徴とする請求項1に記載の方法。
- 少なくとも1つのオブジェクトを表示装置に立体画像としてレンダリングする方法であって、
前記少なくとも1つのオブジェクトまでの視聴者の距離に対する割合として正規化した知覚される奥行きデータを受け取るステップと、
前記正規化した知覚される奥行きデータ及び表示寸法から、前記表示装置に対するピクセル分離オフセットを計算するステップと、
前記少なくとも1つのオブジェクトの、第1のオブジェクト画像及び第2のオブジェクト画像を前記立体画像に挿入するステップと、
を具備し、
前記第1のオブジェクト画像と前記第2のオブジェクト画像とは、前記ピクセル分離オフセット分だけずれていることを特徴とする、
方法。 - 立体画像にオブジェクトを挿入する方法であって、
前記立体画像を第1の再生装置に伝送するステップと、
少なくとも1つのオブジェクトまでの視聴者の距離に対する割合として知覚される奥行きデータを前記第1の再生装置に伝送するステップであって、該第1の再生装置は、該知覚される奥行きデータから、第1のピクセル分離オフセットを計算する能力があることを特徴とするステップと、
前記立体画像を第2の再生装置に伝送するステップと、
割合として知覚される奥行きデータを前記第2の再生装置に伝送するステップであって、前記第2の再生装置は、該知覚される奥行きデータから、第2のピクセル分離オフセットを計算する能力があることを特徴とするステップと、
を具備し、
前記第1のピクセル分離オフセットは、前記第2のピクセル分離オフセットとは等しくないことを特徴とする、
方法。 - 前記第1の再生装置のスクリーン幅は、前記第2の再生装置のスクリーン幅の5分の1以下であることを特徴とする、請求項8に記載の方法。
- 前記第1の再生装置は、携帯用デバイスであることを特徴とする、請求項9に記載の方法。
- 前記第2の再生装置は、2つの映写機を具備することを特徴とする、請求項8に記載の方法。
- 3次元(3D)画像にオブジェクトをレンダリングするための正規化した奥行きデータを生成する方法であって、
第1の画像及び第2の画像を含む立体画像を受け取るステップと、
前記第1の画像及び前記第2の画像内の少なくとも1つのフィーチャを特定するステップと、
3D空間内の位置を定めるために第1の画像及び第2の画像間の少なくとの1つのフィーチャの空間的オフセットを計算するステップと、
3D空間中に前記少なくとも1つのフィーチャが占有する量を定めるステップと、
第1のオブジェクト画像及び第2のオブジェクト画像を含む立体的なオブジェクトを受け取るステップと、
前記立体的なオブジェクトのジオメトリを定めるステップと、
前記占有する量を避けながら、3D空間における立体的なオブジェクト画像を配置するために少なくとも1つのオブジェクト空間的オフセットを計算するステップと、
前記少なくとも1つのオブジェクト空間的オフセットにより定められた知覚される奥行きを正規化するステップと、
前記少なくとも1つのオブジェクト空間的オフセットのディジタルデータを出力するステップと、
を具備することを特徴とする方法。 - 前記立体画像の奥行きマップを受け取るステップをさらに具備することを特徴とする請求項12に記載の方法。
- 出力信号を生成する装置であって、
(a)入力端子と、
(b)出力端子と、
(c)前記入力端子及び前記出力端子に接続された信号処理回路であって、
該信号処理回路は、
少なくとも1つのオブジェクトまでの視聴者の距離に対する割合として知覚される奥行きデータを受け取り、
前記知覚される奥行きデータを用いてピクセル分離オフセットを計算し、そして、
前記少なくとも1つのオブジェクトの左目オブジェクト画像及び右目オブジェクト画像を、それぞれ立体画像の左目画像及び右目画像に挿入するよう作られていて、
前記左目オブジェクト画像及び前記右目オブジェクト画像は、前記ピクセル分離オフセット分だけずれていることを特徴とする、
信号処理回路と、
を具備することを特徴とする装置。 - 出力信号を生成するための方法を行うための、表示装置により実行可能な命令プログラムを記録する記憶媒体であって、該出力信号を生成するための方法は、
前記少なくとも1つのオブジェクトまでの視聴者の距離に対する割合として正規化した知覚される奥行きデータを受け取るステップと、
前記正規化した知覚される奥行きデータ及び表示寸法から、前記表示装置に対するピクセル分離オフセットを計算するステップと、
前記少なくとも1つのオブジェクトの第1のオブジェクト画像を前記立体画像の第1の画像に挿入するステップと、
前記少なくとも1つのオブジェクトの第2のオブジェクト画像を前記立体画像の第2の画像に挿入するステップと、
を具備し、
前記第1のオブジェクト画像と前記第2のオブジェクト画像とは、前記ピクセル分離オフセット分だけずれていることを特徴とする、
方法であることを特徴とする記憶媒体。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US22000709P | 2009-06-24 | 2009-06-24 | |
| US61/220,007 | 2009-06-24 | ||
| PCT/US2010/039543 WO2011005544A1 (en) | 2009-06-24 | 2010-06-22 | Insertion of 3d objects in a stereoscopic image at relative depth |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2012530998A true JP2012530998A (ja) | 2012-12-06 |
| JP5584292B2 JP5584292B2 (ja) | 2014-09-03 |
Family
ID=42342472
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012517664A Expired - Fee Related JP5584292B2 (ja) | 2009-06-24 | 2010-06-22 | 相対的奥行きを持たせた立体画像への3dオブジェクトの組み入れ |
Country Status (14)
| Country | Link |
|---|---|
| US (1) | US9215436B2 (ja) |
| EP (1) | EP2446635B1 (ja) |
| JP (1) | JP5584292B2 (ja) |
| KR (1) | KR101310212B1 (ja) |
| CN (1) | CN102804787B (ja) |
| AR (1) | AR077201A1 (ja) |
| AU (1) | AU2010270951B2 (ja) |
| BR (2) | BRPI1011819A2 (ja) |
| CA (1) | CA2761974C (ja) |
| ES (1) | ES2562255T3 (ja) |
| MY (1) | MY155777A (ja) |
| RU (1) | RU2527249C2 (ja) |
| TW (1) | TW201119353A (ja) |
| WO (1) | WO2011005544A1 (ja) |
Families Citing this family (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010151555A1 (en) | 2009-06-24 | 2010-12-29 | Dolby Laboratories Licensing Corporation | Method for embedding subtitles and/or graphic overlays in a 3d or multi-view video data |
| TW201119353A (en) | 2009-06-24 | 2011-06-01 | Dolby Lab Licensing Corp | Perceptual depth placement for 3D objects |
| US8947422B2 (en) * | 2009-09-30 | 2015-02-03 | Disney Enterprises, Inc. | Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images |
| US8291322B2 (en) * | 2009-09-30 | 2012-10-16 | United Video Properties, Inc. | Systems and methods for navigating a three-dimensional media guidance application |
| US8502862B2 (en) * | 2009-09-30 | 2013-08-06 | Disney Enterprises, Inc. | Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image |
| US20110137727A1 (en) * | 2009-12-07 | 2011-06-09 | Rovi Technologies Corporation | Systems and methods for determining proximity of media objects in a 3d media environment |
| US20110157155A1 (en) * | 2009-12-31 | 2011-06-30 | Disney Enterprises, Inc. | Layer management system for choreographing stereoscopic depth |
| US9042636B2 (en) * | 2009-12-31 | 2015-05-26 | Disney Enterprises, Inc. | Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers |
| US9426441B2 (en) | 2010-03-08 | 2016-08-23 | Dolby Laboratories Licensing Corporation | Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning |
| US9699438B2 (en) * | 2010-07-02 | 2017-07-04 | Disney Enterprises, Inc. | 3D graphic insertion for live action stereoscopic video |
| KR20120004203A (ko) * | 2010-07-06 | 2012-01-12 | 삼성전자주식회사 | 디스플레이 방법 및 장치 |
| KR20120007289A (ko) * | 2010-07-14 | 2012-01-20 | 삼성전자주식회사 | 디스플레이 장치 및 그 입체감 설정 방법 |
| US8428342B2 (en) | 2010-08-12 | 2013-04-23 | At&T Intellectual Property I, L.P. | Apparatus and method for providing three dimensional media content |
| US20120086772A1 (en) * | 2010-10-08 | 2012-04-12 | Sony Corporation | Closed captioning for 3d television |
| US20120092364A1 (en) * | 2010-10-14 | 2012-04-19 | Microsoft Corporation | Presenting two-dimensional elements in three-dimensional stereo applications |
| JP5673172B2 (ja) * | 2011-02-09 | 2015-02-18 | ソニー株式会社 | 電子機器、電子機器における立体画像情報送信方法、および電子機器における立体画像情報受信方法 |
| JP4892105B1 (ja) * | 2011-02-21 | 2012-03-07 | 株式会社東芝 | 映像処理装置、映像処理方法および映像表示装置 |
| WO2012145191A1 (en) | 2011-04-15 | 2012-10-26 | Dolby Laboratories Licensing Corporation | Systems and methods for rendering 3d images independent of display size and viewing distance |
| JP2012244396A (ja) * | 2011-05-19 | 2012-12-10 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
| WO2013014177A1 (en) | 2011-07-25 | 2013-01-31 | Sony Corporation | In-painting method for 3d stereoscopic views generation |
| US8982187B2 (en) * | 2011-09-19 | 2015-03-17 | Himax Technologies Limited | System and method of rendering stereoscopic images |
| EP2800385A4 (en) * | 2011-12-28 | 2015-11-25 | Sony Corp | DEVICE FOR ADJUSTING THE BINOCULAR DISPARITY, IMAGE PROCESSING DEVICE AND FRAME FORMAT |
| EP2627093A3 (en) * | 2012-02-13 | 2013-10-02 | Thomson Licensing | Method and device for inserting a 3D graphics animation in a 3D stereo content |
| WO2014164921A1 (en) * | 2013-03-11 | 2014-10-09 | Avegant Corporation | System, apparatus, and method for enhancing stereoscopic images |
| JP6341986B2 (ja) * | 2013-09-11 | 2018-06-13 | 株式会社スクウェア・エニックス・ホールディングス | 描画装置、その描画方法、プログラム及び記録媒体 |
| US10122992B2 (en) | 2014-05-22 | 2018-11-06 | Disney Enterprises, Inc. | Parallax based monoscopic rendering |
| CN106464856B (zh) * | 2014-06-24 | 2019-01-15 | 谷歌有限责任公司 | 用于分析和确定虚拟环境的特性的计算机化系统和方法 |
| US9948913B2 (en) | 2014-12-24 | 2018-04-17 | Samsung Electronics Co., Ltd. | Image processing method and apparatus for processing an image pair |
| US9542722B2 (en) | 2014-12-29 | 2017-01-10 | Sony Corporation | Automatic scaling of objects based on depth map for image editing |
| BR112018000564A2 (pt) * | 2015-07-13 | 2018-09-11 | Koninklijke Philips N.V. | aparelho, método, e produto de programa de computador |
| US20190158724A1 (en) * | 2017-11-17 | 2019-05-23 | Seek Thermal, Inc. | Network camera with local control bus |
| CN106231292B (zh) * | 2016-09-07 | 2017-08-25 | 深圳超多维科技有限公司 | 一种立体虚拟现实直播方法、装置及设备 |
| KR102208129B1 (ko) | 2017-09-26 | 2021-01-27 | 엘지전자 주식회사 | 360 비디오 시스템에서 오버레이 처리 방법 및 그 장치 |
| KR102638368B1 (ko) * | 2017-12-28 | 2024-02-20 | 주식회사 케이티 | 가상 현실 공간 생성 장치, 방법 및 컴퓨터 프로그램 |
| EP3528496A1 (en) * | 2018-02-16 | 2019-08-21 | Ultra-D Coöperatief U.A. | Overscan for 3d display |
| EP3777184A4 (en) * | 2018-03-28 | 2021-12-15 | Nokia Technologies Oy | PROCESS, DEVICE AND COMPUTER PROGRAM PRODUCT FOR VIRTUAL REALITY |
| JP2024521898A (ja) * | 2021-06-02 | 2024-06-04 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 3次元シーン及びその深度平面データを表現する方法、エンコーダ、及び表示装置 |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0777393A2 (de) * | 1995-12-05 | 1997-06-04 | ViDiSys Video- und Digital-Systeme GmbH & Co. KG | Verfahren und Vorrichtung zur Überlagerung von Stereo-Videobildern |
| JPH09172654A (ja) * | 1995-10-19 | 1997-06-30 | Sony Corp | 立体画像編集装置 |
| JP2001218229A (ja) * | 2000-02-02 | 2001-08-10 | Fuji Photo Optical Co Ltd | 立体撮像装置用固体撮像素子の位置調整構造 |
| JP2004220127A (ja) * | 2003-01-09 | 2004-08-05 | Sanyo Electric Co Ltd | 立体画像処理方法および装置 |
| JP2004274125A (ja) * | 2003-03-05 | 2004-09-30 | Sony Corp | 画像処理装置および方法 |
| JP2006325165A (ja) * | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法 |
| WO2007092647A2 (en) * | 2006-02-09 | 2007-08-16 | Real D | On the fly hardware based interdigitation |
Family Cites Families (61)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4859994A (en) | 1987-10-26 | 1989-08-22 | Malcolm Zola | Closed-captioned movie subtitle system |
| US5615046A (en) | 1995-01-23 | 1997-03-25 | Cyber Scientific Inc. | Stereoscopic viewing system |
| US5953506A (en) | 1996-12-17 | 1999-09-14 | Adaptive Media Technologies | Method and apparatus that provides a scalable media delivery system |
| CA2305735C (en) | 1997-12-05 | 2008-01-08 | Dynamic Digital Depth Research Pty. Ltd. | Improved image conversion and encoding techniques |
| US20050146521A1 (en) | 1998-05-27 | 2005-07-07 | Kaye Michael C. | Method for creating and presenting an accurate reproduction of three-dimensional images converted from two-dimensional images |
| US6631205B1 (en) | 1999-01-13 | 2003-10-07 | Canon Kabushiki Kaisha | Stereoscopic imaging in a portable document format |
| GB2354389A (en) | 1999-09-15 | 2001-03-21 | Sharp Kk | Stereo images with comfortable perceived depth |
| WO2001080548A2 (en) | 2000-04-13 | 2001-10-25 | Xm Corporation | System and method for creating, editing and distributing stereoscopic images |
| JP3841630B2 (ja) | 2000-08-29 | 2006-11-01 | オリンパス株式会社 | 画像取り扱い装置 |
| JP4610799B2 (ja) | 2001-06-25 | 2011-01-12 | オリンパス株式会社 | 立体観察システム、及び内視鏡装置 |
| RU2237283C2 (ru) * | 2001-11-27 | 2004-09-27 | Самсунг Электроникс Ко., Лтд. | Устройство и способ представления трехмерного объекта на основе изображений с глубиной |
| US20030103062A1 (en) | 2001-11-30 | 2003-06-05 | Ruen-Rone Lee | Apparatus and method for controlling a stereo 3D display using overlay mechanism |
| US7075587B2 (en) | 2002-01-04 | 2006-07-11 | Industry-Academic Cooperation Foundation Yonsei University | Video display apparatus with separate display means for textual information |
| AU2003252388A1 (en) | 2002-08-27 | 2004-03-19 | Sharp Kabushiki Kaisha | Content reproduction device capable of reproducing a content in optimal reproduction mode |
| AU2003268678A1 (en) | 2002-09-27 | 2004-04-19 | Sharp Kabushiki Kaisha | Image data creation device, image data reproduction device, image data creation method, image data reproduction method, recording medium containing image data or image processing program, and image data recording device |
| KR100488804B1 (ko) | 2002-10-07 | 2005-05-12 | 한국전자통신연구원 | Mpeg-4 기반의 양안식 3차원 동영상 데이터 처리시스템 및 그 방법 |
| KR100751422B1 (ko) | 2002-12-27 | 2007-08-23 | 한국전자통신연구원 | 스테레오스코픽 비디오 부호화 및 복호화 방법, 부호화 및복호화 장치 |
| WO2004084560A1 (ja) | 2003-03-20 | 2004-09-30 | Seijiro Tomita | 立体映像撮影表示システム |
| JP4490074B2 (ja) | 2003-04-17 | 2010-06-23 | ソニー株式会社 | 立体視画像処理装置、立体視画像表示装置、立体視画像提供方法、および立体視画像処理システム |
| US7015920B2 (en) | 2003-04-30 | 2006-03-21 | International Business Machines Corporation | Method and system for providing useable images on a high resolution display when a 2D graphics window is utilized with a 3D graphics window |
| DE602004008794T2 (de) | 2003-09-30 | 2008-06-12 | Koninklijke Philips Electronics N.V. | Bildwiedergabe mit interaktiver bewegungsparallaxe |
| WO2005083630A2 (en) | 2004-02-17 | 2005-09-09 | Koninklijke Philips Electronics N.V. | Creating a depth map |
| CA2557534A1 (en) | 2004-02-27 | 2005-09-09 | Td Vision Corporation S.A. De C.V. | Method and system for digital decoding 3d stereoscopic video images |
| EP1728208A1 (en) | 2004-03-12 | 2006-12-06 | Koninklijke Philips Electronics N.V. | Creating a depth map |
| JP2005311983A (ja) | 2004-04-26 | 2005-11-04 | Olympus Corp | 画像処理装置 |
| GB2413910A (en) | 2004-04-28 | 2005-11-09 | Spiral Scratch Ltd | Determining depth information from change in size of a projected pattern with varying depth |
| US7643672B2 (en) | 2004-10-21 | 2010-01-05 | Kazunari Era | Image processing apparatus, image pickup device and program therefor |
| EP1869639A2 (en) * | 2005-04-07 | 2007-12-26 | Nxp B.V. | Method and device for three-dimensional rendering |
| EP1875440B1 (en) | 2005-04-19 | 2008-12-03 | Koninklijke Philips Electronics N.V. | Depth perception |
| KR100813961B1 (ko) | 2005-06-14 | 2008-03-14 | 삼성전자주식회사 | 영상 수신장치 |
| JP4630150B2 (ja) | 2005-07-26 | 2011-02-09 | シャープ株式会社 | 立体画像記録装置及びプログラム |
| KR100667810B1 (ko) | 2005-08-31 | 2007-01-11 | 삼성전자주식회사 | 3d 영상의 깊이감 조정 장치 및 방법 |
| KR100818933B1 (ko) | 2005-12-02 | 2008-04-04 | 한국전자통신연구원 | 디지털방송 기반 3차원 컨텐츠 서비스 제공 방법 |
| KR100747550B1 (ko) | 2005-12-09 | 2007-08-08 | 한국전자통신연구원 | Dmb 기반의 3차원 입체영상 서비스 제공 방법과, dmb기반의 3차원 입체영상 서비스를 위한 복호화 장치 및 그방법 |
| US8074168B2 (en) | 2006-06-09 | 2011-12-06 | Oracle America, Inc. | Automated context-compensated rendering of text in a graphical environment |
| WO2008030011A1 (en) | 2006-09-04 | 2008-03-13 | Enhanced Chip Technology Inc. | File format for encoded stereoscopic image/video data |
| US20100091012A1 (en) | 2006-09-28 | 2010-04-15 | Koninklijke Philips Electronics N.V. | 3 menu display |
| EP2105032A2 (en) | 2006-10-11 | 2009-09-30 | Koninklijke Philips Electronics N.V. | Creating three dimensional graphics data |
| CA2669016A1 (en) | 2006-11-20 | 2008-05-29 | Thomson Licensing | System and method for compositing 3d images |
| BRPI0721452B1 (pt) | 2007-03-16 | 2020-03-03 | Interdigital Ce Patent Holdings | Sistema e método para combinar texto com conteúdo de imagem tridimensional |
| WO2008122838A1 (en) | 2007-04-04 | 2008-10-16 | Nokia Corporation | Improved image quality in stereoscopic multiview displays |
| RU2340116C1 (ru) | 2007-05-15 | 2008-11-27 | ГОУ ВПО "Саратовский государственный университет им. Н.Г. Чернышевского" | Способ воспроизведения стереоскопического изображения от видеокамер со сходящимися осями |
| KR100962696B1 (ko) | 2007-06-07 | 2010-06-11 | 주식회사 이시티 | 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법 |
| EP2001235B1 (en) | 2007-06-08 | 2013-05-22 | Samsung Electronics Co., Ltd. | MPEG-4 format extension for recording stereoscopic or synthetic 3D video data with related metadata |
| JP4291862B2 (ja) * | 2007-07-04 | 2009-07-08 | 稔 稲葉 | 立体テレビジョンシステム及び立体テレビジョン受像機 |
| US8538134B2 (en) | 2007-10-04 | 2013-09-17 | Samsung Electronics Co., Ltd. | Method and apparatus for receiving and generating image data stream including parameters for displaying local three dimensional image |
| JP2009135686A (ja) | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
| KR101539935B1 (ko) | 2008-06-24 | 2015-07-28 | 삼성전자주식회사 | 3차원 비디오 영상 처리 방법 및 장치 |
| JP5577334B2 (ja) | 2008-07-20 | 2014-08-20 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 立体ビデオ配信システムのエンコーダ最適化 |
| JP5567562B2 (ja) | 2008-07-24 | 2014-08-06 | コーニンクレッカ フィリップス エヌ ヴェ | 多用途三次元画像フォーマット |
| CN102100076B (zh) * | 2008-07-24 | 2013-06-12 | 松下电器产业株式会社 | 能够进行立体视觉再生的再生装置、再生方法 |
| JP5235035B2 (ja) | 2008-09-23 | 2013-07-10 | ドルビー ラボラトリーズ ライセンシング コーポレイション | チェッカーボード多重化したイメージデータのエンコーディング構造及びデコーディング構造 |
| US8335425B2 (en) * | 2008-11-18 | 2012-12-18 | Panasonic Corporation | Playback apparatus, playback method, and program for performing stereoscopic playback |
| JP5577348B2 (ja) | 2008-12-01 | 2014-08-20 | アイマックス コーポレイション | 内容順応情報を有する3次元動画提示方法及びシステム |
| MY158823A (en) | 2008-12-19 | 2016-11-15 | Koninl Philips Electronics Nv | Method and device for overlaying 3d graphics over 3d video |
| CA2752691C (en) * | 2009-02-27 | 2017-09-05 | Laurence James Claydon | Systems, apparatus and methods for subtitling for stereoscopic content |
| US8290338B2 (en) * | 2009-05-27 | 2012-10-16 | Panasonic Corporation | Recording medium, playback device, encoding device, integrated circuit, and playback output device |
| TW201119353A (en) | 2009-06-24 | 2011-06-01 | Dolby Lab Licensing Corp | Perceptual depth placement for 3D objects |
| WO2010151555A1 (en) | 2009-06-24 | 2010-12-29 | Dolby Laboratories Licensing Corporation | Method for embedding subtitles and/or graphic overlays in a 3d or multi-view video data |
| KR20110005205A (ko) | 2009-07-09 | 2011-01-17 | 삼성전자주식회사 | 디스플레이 장치의 화면 사이즈를 이용한 신호 처리 방법 및 장치 |
| WO2011006104A1 (en) | 2009-07-10 | 2011-01-13 | Dolby Laboratories Licensing Corporation | Modifying images for a 3-dimensional display mode |
-
2010
- 2010-06-09 TW TW099118704A patent/TW201119353A/zh unknown
- 2010-06-22 EP EP10729007.4A patent/EP2446635B1/en not_active Not-in-force
- 2010-06-22 AU AU2010270951A patent/AU2010270951B2/en not_active Ceased
- 2010-06-22 RU RU2012101829/07A patent/RU2527249C2/ru not_active IP Right Cessation
- 2010-06-22 CA CA2761974A patent/CA2761974C/en not_active Expired - Fee Related
- 2010-06-22 BR BRPI1011819A patent/BRPI1011819A2/pt not_active IP Right Cessation
- 2010-06-22 BR BR122013001378A patent/BR122013001378A2/pt not_active IP Right Cessation
- 2010-06-22 JP JP2012517664A patent/JP5584292B2/ja not_active Expired - Fee Related
- 2010-06-22 KR KR1020117027927A patent/KR101310212B1/ko not_active Expired - Fee Related
- 2010-06-22 WO PCT/US2010/039543 patent/WO2011005544A1/en not_active Ceased
- 2010-06-22 MY MYPI2011005889A patent/MY155777A/en unknown
- 2010-06-22 CN CN201080027946.7A patent/CN102804787B/zh not_active Expired - Fee Related
- 2010-06-22 ES ES10729007.4T patent/ES2562255T3/es active Active
- 2010-06-22 US US13/380,160 patent/US9215436B2/en not_active Expired - Fee Related
- 2010-06-23 AR ARP100102212A patent/AR077201A1/es not_active Application Discontinuation
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09172654A (ja) * | 1995-10-19 | 1997-06-30 | Sony Corp | 立体画像編集装置 |
| EP0777393A2 (de) * | 1995-12-05 | 1997-06-04 | ViDiSys Video- und Digital-Systeme GmbH & Co. KG | Verfahren und Vorrichtung zur Überlagerung von Stereo-Videobildern |
| JP2001218229A (ja) * | 2000-02-02 | 2001-08-10 | Fuji Photo Optical Co Ltd | 立体撮像装置用固体撮像素子の位置調整構造 |
| JP2004220127A (ja) * | 2003-01-09 | 2004-08-05 | Sanyo Electric Co Ltd | 立体画像処理方法および装置 |
| JP2004274125A (ja) * | 2003-03-05 | 2004-09-30 | Sony Corp | 画像処理装置および方法 |
| JP2006325165A (ja) * | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法 |
| WO2007092647A2 (en) * | 2006-02-09 | 2007-08-16 | Real D | On the fly hardware based interdigitation |
Non-Patent Citations (2)
| Title |
|---|
| CSNG200900266011; 安田敏宏, 外5名: '"サーバレンダリングを用いた立体映像生成手法に関する検討"' 電子情報通信学会 第19回データ工学ワークショップ論文集 , 20080407, 電子情報通信学会データ工学研究専門委員会 * |
| JPN6013014741; 安田敏宏, 外5名: '"サーバレンダリングを用いた立体映像生成手法に関する検討"' 電子情報通信学会 第19回データ工学ワークショップ論文集 , 20080407, 電子情報通信学会データ工学研究専門委員会 * |
Also Published As
| Publication number | Publication date |
|---|---|
| AU2010270951A1 (en) | 2011-12-08 |
| EP2446635B1 (en) | 2015-12-02 |
| CN102804787B (zh) | 2015-02-18 |
| US20120099836A1 (en) | 2012-04-26 |
| WO2011005544A1 (en) | 2011-01-13 |
| CA2761974A1 (en) | 2011-01-13 |
| US9215436B2 (en) | 2015-12-15 |
| ES2562255T3 (es) | 2016-03-03 |
| CN102804787A (zh) | 2012-11-28 |
| HK1176773A1 (en) | 2013-08-02 |
| EP2446635A1 (en) | 2012-05-02 |
| BRPI1011819A2 (pt) | 2016-03-29 |
| TW201119353A (en) | 2011-06-01 |
| JP5584292B2 (ja) | 2014-09-03 |
| KR20120020131A (ko) | 2012-03-07 |
| BR122013001378A2 (pt) | 2016-04-05 |
| KR101310212B1 (ko) | 2013-09-24 |
| CA2761974C (en) | 2014-08-12 |
| AU2010270951B2 (en) | 2014-06-26 |
| MY155777A (en) | 2015-11-30 |
| AR077201A1 (es) | 2011-08-10 |
| RU2527249C2 (ru) | 2014-08-27 |
| RU2012101829A (ru) | 2013-07-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5584292B2 (ja) | 相対的奥行きを持たせた立体画像への3dオブジェクトの組み入れ | |
| EP2399398B1 (en) | Combining 3d image and graphical data | |
| KR101716636B1 (ko) | 3d 비디오 및 보조 데이터의 결합 | |
| EP2553932B1 (en) | Disparity value indications | |
| WO2012145191A1 (en) | Systems and methods for rendering 3d images independent of display size and viewing distance | |
| KR101834934B1 (ko) | 3d 이미지 데이터의 전송 | |
| HK1176773B (en) | Insertion of 3d objects in a stereoscopic image at relative depth |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20111221 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111221 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111221 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130321 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130402 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130627 |
|
| A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130705 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130801 |
|
| A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130819 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130902 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131022 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140122 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140602 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140624 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140717 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5584292 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |