[go: up one dir, main page]

JP2014044569A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2014044569A
JP2014044569A JP2012186598A JP2012186598A JP2014044569A JP 2014044569 A JP2014044569 A JP 2014044569A JP 2012186598 A JP2012186598 A JP 2012186598A JP 2012186598 A JP2012186598 A JP 2012186598A JP 2014044569 A JP2014044569 A JP 2014044569A
Authority
JP
Japan
Prior art keywords
dimensional
output image
image data
virtual
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012186598A
Other languages
English (en)
Inventor
Yoshiyuki Tsuda
佳行 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2012186598A priority Critical patent/JP2014044569A/ja
Publication of JP2014044569A publication Critical patent/JP2014044569A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】三次元画像データの二次元表示に関わる演算量を抑制する。
【解決手段】実空間におけるユーザの頭部位置を計測し、三次元オブジェクトOBJが配置された仮想空間に計測頭部位置をマッピングすることで仮想空間上のユーザの仮想視点VSを設定する。実空間におけるユーザ及び電子機器(表示部18)間の距離(dA、dB)に対応して、仮想空間における仮想視点及び三次元オブジェクトOBJ間の距離(LA、LB)が決定される。三次元オブジェクトOBJを仮想視点VSに投影することで表示画像である出力画像(IOUTA、IOUTB)が生成される。実空間又は仮想空間における上記距離が比較的小さい場合、高い解像度を有する原三次元画像データを用いて出力画像を生成し、上記距離が比較的大きい場合、原三次元画像データを低解像度化したものを用いて出力画像を生成する。
【選択図】図7

Description

本発明は、電子機器に関する。
三次元表示用の専用ハードウェアに対し三次元画像データを供給すれば、三次元画像データに含まれる三次元オブジェクトの三次元表示を行うことができる。一方、そのような専用ハードウェアがなくとも、三次元画像データを二次元化することで三次元オブジェクトを二次元の表示画面上で表現することができる(例えば下記特許文献1参照)。
また、下記特許文献2では、対象物の動きを動画像として撮像する撮像装置と、前記撮像装置に対する前記対象物の縦方向、横方向、奥行き方向の三次元空間での基準位置からの動き量を、前記対象物の輪郭線に基づき前記動画像より推定する入力値取得部と、前記入力値取得部が推定した三次元空間での動き量に応じて異なる処理を行い出力データを生成する出力データ生成部と、を備えた情報処理装置が提案されている。
特開2009−48256号公報 特開2010−191827号公報
三次元画像データを二次元化するための変換処理は、三次元オブジェクトの投影処理等によって実現されるが、当該変換処理に必要な演算量は少なくない。必要な演算量の低減が様々なメリットをもたらすことは言うまでもない。
そこで本発明は、三次元画像データに基づく二次元画像の生成に関わる演算量の低減に寄与する電子機器を提供することを目的とする。
本発明に係る第1の電子機器は、実空間内における対象物の位置を計測する計測部と、計測位置に応じた二次元の出力画像を三次元画像データから生成する信号処理部と、前記出力画像を表示する表示部と、を備え、前記信号処理部は、前記出力画像の生成に用いる前記三次元画像データの解像度を前記計測位置に応じて制御する制御部を有することを特徴とする。
二次元の出力画像の生成に用いる三次元画像データの解像度が固定されている場合、いかなる状況下でも、三次元画像データに基づく出力画像の生成処理に、固定解像度に見合った演算量が必要になる。上記構成によれば、計測位置に応じ、高い解像度が必要と思われない状況下では、出力画像の生成に用いる三次元画像データの解像度を低減するといったことが可能となる。当該低減によって必要な演算量の抑制が期待される。
本発明に係る第2の電子機器は、実空間内における対象物の位置を計測する計測部と、計測位置に応じた二次元の出力画像を三次元画像データから生成する信号処理部と、前記出力画像を表示する表示部と、を備え、前記信号処理部は、第1時刻の計測位置である第1計測位置に基づき前記三次元画像データから第1出力画像を生成した後、第2時刻の計測位置である第2計測位置に基づき第2出力画像を生成する際、前記三次元画像データから前記第2出力画像を生成する第1処理、又は、前記第1出力画像から前記第2出力画像を生成する第2処理を、前記第1及び第2時刻の計測位置に応じて選択的に実行することを特徴とする。
対象物の計測位置に応じて三次元画像データから二次元の出力画像を生成する際、計測位置によっては(例えば計測位置に変化がない場合においては)、三次元画像データから出力画像を生成する処理を改めて行う必要がないこともある。上記構成の如く、第1及び第2時刻の計測位置に応じて第1及び第2処理の選択実行を可能にしておくことにより、三次元画像データから出力画像を生成する処理を改めて行う必要がないと判断される状況下において(例えば、計測位置に変化がない場合において)、三次元画像データから出力画像を生成する処理を割愛することが可能となる。当該処理の割愛により必要な演算量が抑制される。
本発明によれば、三次元画像データに基づく二次元画像の生成に関わる演算量の低減に寄与する電子機器を提供することが可能である。
本発明の第1実施形態に係る電子機器の概略全体ブロック図である。 電子機器及びユーザの関係を示す図である。 電子機器、ユーザ及びXYZ座標系の関係を示す図である。 仮想空間における三次元オブジェクトと仮想視点の関係を示す図である。 仮想空間において仮想視点が移動する平面を示す図(a)と、実空間における実視点の移動と仮想空間における仮想視点の移動との対応関係例を示す図(b)である。 仮想空間において仮想視点が三次元オブジェクトの周りを回転移動する様子を示した図(a)と、実空間における実視点の移動と仮想空間における仮想視点の移動との対応関係例(b)を示す図である。 実空間及び仮想空間における2つの距離の第1例を示す図(a)と、第1例に対応する出力画像を示す図(b)と、実空間及び仮想空間における2つの距離の第2例を示す図(c)と、第2例に対応する出力画像を示す図(d)である。 本発明の第1実施形態に係る電子機器の動作フローチャートである。 仮想空間における2つの三次元オブジェクトと仮想視点との関係を示す図である。 本発明の第2実施形態に係り、第1時刻(t1)の出力画像の例を示す図である。 本発明の第2実施形態に係り、第2時刻(t2)の出力画像の第1及び第2例を示す図である。 本発明の第2実施形態に係る電子機器の動作フローチャートである。 仮想空間における2つの三次元オブジェクトと異なる時刻の仮想視点との関係を示す図である。
以下、本発明の実施形態の例を、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。尚、本明細書では、記述の簡略化上、情報、信号、物理量、状態量又は部材等を参照する記号又は符号を記すことによって該記号又は符号に対応する情報、信号、物理量、状態量又は部材等の名称を省略又は略記することがある。
<<第1実施形態>>
本発明の第1実施形態を説明する。図1は、本発明の第1実施形態に係る電子機器1の概略全体ブロック図である。表示装置とも言うべき電子機器1は、符号11〜18によって参照される各部位を備える。信号処理部14は、符号21〜23によって参照される各部位を備える。電子機器1は、任意の情報の取得、再生又は加工等を行うことのできる任意の情報機器であり、例えば、テレビ受信器、画像再生装置、携帯電話機、情報端末、パーソナルコンピュータ、電子書籍リーダ、電子辞書、デジタルカメラ、ゲーム機器又はナビゲーション装置である。電子機器1は、図1に示される部位以外の様々な部位(計測用カメラ11と異なるメインカメラ、電話機能を実現する部位など)を更に備えうる。
計測用カメラ11は、電子機器1のユーザ2を撮影するためのカメラである。ユーザ2は、表示部18の表示内容の観察者である。図2に、電子機器1とユーザ2との関係を示す。計測用カメラ11は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子を有し、撮影によってユーザ2の像であるユーザ画像の画像データを生成する。計測用カメラ11は、所定の撮影フレームレートでユーザ画像の周期的撮影を行い、得られた画像データを順次、対象位置計測部12に出力する。
対象位置計測部12は、ユーザ画像の画像データに基づき対象物の位置を計測し、計測した位置である対象位置を出力する。本実施形態及び後述の第2実施形態において、対象物はユーザ2の頭であり、従って対象位置はユーザ2の頭の位置(以下、頭部位置という)である。対象位置としての頭部位置は、例えば、ユーザ2の頭の中心又は重心位置である。以下の説明において、特に記述無き限り、頭とはユーザ2の頭を指す。対象位置計測部12は、ユーザ画像に含まれる頭の輪郭をユーザ画像の画像データから抽出する処理を、順次得られるユーザ画像の夫々に対して実行し、その処理の結果から、各時刻における頭部位置及び頭部位置の動きを検出する。ここで検出される動きは、実空間上の三次元的な動きである。実空間は、当然、三次元空間である。
より具体的には、対象位置計測部12は、ユーザ画像ごとに、ユーザ画像の画像データに基づき頭部位置の座標値(x,y,z)を求めることができる。頭部位置の座標値(x,y,z)は、実空間上に定義されたXYZ座標系上の座標値である。電子機器1、ユーザ2及びXYZ座標系の関係を図3(a)及び(b)に示す。XYZ座標系は、原点Oで互いに直交するX軸、Y軸及びZ軸から成る。X軸及びY軸は、表示部18の表示画面に平行であって、夫々、該表示画面の水平方向及び垂直方向に平行である。電子機器1及びユーザ2間の距離の方向においてZ軸がとられている。図3(b)において、位置300は頭部位置の例である。頭部位置300の座標値(x,y,z)に関し、x、y及びzは、夫々、頭部位置300のX、Y及びZ軸座標値を表す。計測部12は、ユーザ2の頭が原点Oにあるときのユーザ画像上の頭の位置及び大きさを基準にして、各時刻のユーザ画像上の頭の位置及び大きさを検出することで、各時刻における座標値(x,y,z)を求めることができる。以下では、(x,y,z)を、頭部位置を示す記号としても用いる。
対象位置計測部12は、電子機器1及び原点O間の距離とZ軸座標値“z”とから、距離(実距離)dを求めることができる。距離dは、実空間上における頭部位置及び電子機器1間の距離である。説明の便宜上、zが正の値をとる状況だけを想定し、距離dが増大するとzの値は増大するものとする。電子機器1及び原点O間の距離は、計測部12にとって既知であって良い。計測部12は、各時刻のユーザ画像の画像データに基づき各時刻の距離dを直接検出するようにしても良い。この場合、計測部12は、ユーザ画像上のユーザ2の顔又は頭の大きさを検出し、所定のテーブルデータ又は数式を用いて、検出した大きさを距離dに変換すれば良い。ここにおけるテーブルデータ又は数式は、顔又は頭の大きさと距離dとの関係を規定している。各時刻のユーザ画像の画像データに基づき各時刻の距離dを直接検出する場合、原点Oが電子機器1上に位置しているとみなせばよい(従って “z=d”とみなせば良い)。
記憶装置13は、半導体メモリ、磁気ディスク、光ディスク等から成り、三次元画像データを記憶する。記憶装置13は、電子機器1の外部に設けられていても良い。三次元画像データは、1以上の三次元オブジェクトについての1以上の三次元オブジェクトデータを含み、各々の三次元オブジェクトデータは、対応する三次元オブジェクトの形状、位置及び姿勢を示している。三次元オブジェクトは、電子機器1(信号処理部14)にて定義される、三次元空間としての仮想空間に配置される。三次元オブジェクトデータにて示される三次元オブジェクトの形状、位置及び姿勢は、当該仮想空間内における三次元オブジェクトの形状、位置及び姿勢である。三次元オブジェクトの位置は、例えば三次元オブジェクトの中心又は重心の位置である。
信号処理部14は、頭部位置に応じた二次元画像である出力画像IOUTを三次元画像データから生成する機能を持つ。この際、RAM(Random Access Memory)にて形成される第1データバッファ15及び第2データバッファ16と、ROM(Read Only Memory)にて形成される制御用テーブル17が利用される。記憶装置13に記憶され且つ記憶装置13から信号処理部14に供給される三次元画像データを、特に原三次元画像データと呼ぶと共に記号DHにて表す。原三次元画像データDHは信号処理部14を介して第1データバッファ15に保持される。信号処理部14が記憶装置13から原三次元画像データDHを読み込む際、解像度変換部21は、原三次元画像データDHの解像度よりも低い解像度を有する三次元画像データDLを原三次元画像データDHから生成する。第2データバッファ16は、低解像度の三次元画像データDLを保持する。
3D2D変換部22は、三次元画像データDH又はDLを選択的に用いて出力画像IOUTを生成することができる。処理制御部23は、出力画像IOUTの生成のために、三次元画像データDH及びDLのどちらを用いるのかを、制御用テーブル17を参照しつつ、計測頭部位置に基づき決定する。表示部18は、液晶ディスプレイパネル等から成り、変換部22にて生成された出力画像IOUTを表示する。以下、特に記述無き限り、表示画面とは表示部18の表示画面を指す。
図4等を参照して、出力画像IOUTの生成方法と画像データDH又はDLの選択方法を説明する。図4において、符号OBJは仮想空間内における三次元オブジェクトを表し、符号VSは仮想空間内に設定された仮想視点を表している。仮想視点VSは、仮想空間に設定されたユーザ2の仮想的な視点である。信号処理部14にて取り扱われる三次元画像データ(例えば画像データDH又はDL)により、仮想空間内における三次元オブジェクトOBJの形状、位置及び姿勢が定まる。信号処理部14は、計測部12にて計測された頭部位置を仮想空間上にマッピングすることで仮想視点VSを設定する。信号処理部14は、頭部位置(x,y,z)と仮想視点VSの位置との対応関係を示す所定の仮想視点マッピング用データを用いて、仮想視点VSを設定することができる。距離(仮想距離)Lは、仮想空間上における仮想視点VS及び三次元オブジェクトOBJ(例えば三次元オブジェクトOBJの中心又は重心)間の距離を表す。
3D2D変換部22は、仮想空間において三次元オブジェクトOBJを仮想視点VSに投影することで出力画像IOUTを生成する。即ち、仮想視点VSから三次元オブジェクトOBJを観測したときの三次元オブジェクトOBJの二次元の像(これを、二次元オブジェクト像と呼ぶ)が、出力画像IOUTに含められる。二次元オブジェクト像は、三次元オブジェクトOBJの仮想視点VSへの投影像に相当する。仮想空間において三次元オブジェクトOBJを仮想視点VSに投影する処理は、仮想視点VSから三次元オブジェクトOBJを見る視線(仮想視点VSの視線)に直交する仮想二次元平面に対し三次元オブジェクトOBJを投影する処理を含み、その投影により仮想二次元平面上に形成された像が二次元オブジェクト像として機能する。
三次元画像データから二次元画像データ(即ち出力画像IOUTの画像データ)を生成する方法として、三次元画像データの形式や信号処理部14の処理性能に応じ、様々な方法を採用することができる。例えば、OBJファイルフォーマット又は3D-studioフォーマットなどのように、ポリゴンとテクスチャの画像形式で三次元画像データが形成されている場合、三次元画像データをそのまま仮想視点VSに投影すれば良い。また、2眼又は多眼ステレオカメラの撮影によって得られた多視点画像データ(MPO形式のデータやMPEG−MVC(Moving Picture Experts Group-Multiview Video Coding)のデータ)にて三次元画像データが形成されている場合、視点ごとの二次元画像の画像データが三次元画像データに含まれているため、頭部位置に応じた視点の二次元画像を三次元画像データから出力画像IOUTとして抽出して表示することも可能である。勿論、三次元画像データに含まれる視点が異なる複数の二次元画像をもとに距離画像(range image)の生成を介してポリゴンとテクスチャの画像形式の三次元画像データを生成し、生成三次元画像データを仮想視点VSに投影しても良い。また、Image-Based Renderingによる視点補間を行っても良い。
頭部位置(x,y,z)におけるx又はyの値が変化したとき、仮想視点VSは図5(a)の平面310上で平行移動する。平面310は、三次元オブジェクトOBJに対向配置された、仮想空間内の平面である。三次元オブジェクトOBJの中心又は重心から平面310に下した平面310の法線の長さはLである。図5(b)に、この平行移動に対応する、実空間におけるユーザ2の視点の変化と、仮想空間における仮想視点VSの変化との関係を示す。ユーザ2の実視点に相当する頭部位置が表示画面と平行に位置321から位置322、323へと移動したとき、仮想空間において仮想視点VSの位置を位置331から位置332、333へと平行移動させることができる。x又はyの値を変化させる頭部位置の変化量が増大すれば、平面310上の仮想視点VSの移動量も増大する。図5(a)及び(b)の方法によれば、実空間においてユーザ2が頭の位置を表示画面に平行な方向に移動させたとき、頭部位置に応じて三次元オブジェクトOBJを正面、右斜め、左斜め、斜め上方又は斜め下方から見たかのような三次元オブジェクトOBJの二次元の像(二次元オブジェクト像)が、生成され且つ出力画像IOUTに含められ且つ表示部18に表示されることになる。
図5(a)及び(b)に示したような、実空間上の頭部位置の変化(換言すればユーザ2の実視点の変化)と仮想空間上の仮想視点VSの変化との関係は一例であり、その関係を様々に変更しても良い。例えば、頭部位置(x,y,z)におけるx又はyの値が変化したとき、仮想視点VSは、三次元オブジェクトOBJの位置を中心とし且つ半径がLの球面上を回転移動しても良い。この回転移動の例の様子を図6(a)に示し、図6(b)に、この回転移動に対応する、実空間におけるユーザ2の視点の変化と、仮想空間における仮想視点VSの変化との関係を示す。図6(b)の例では、ユーザ2の実視点に相当する頭部位置が表示画面と平行に位置351から位置352、353へと移動したとき、仮想空間において仮想視点VSの位置が位置361から位置362、363へと回転移動している。x又はyの値を変化させる頭部位置の変化量が増大すれば、仮想視点VSの回転移動の回転角も増大する。図6(a)及び(b)の方法によれば、実空間においてユーザ2が頭の位置を表示画面に平行な方向に移動させたとき、頭部位置に応じて三次元オブジェクトOBJを正面、右側、左側、裏側、上側又は下側から見たかのような三次元オブジェクトOBJの二次元の像(二次元オブジェクト像)が、生成され且つ出力画像IOUTに含められ且つ表示部18に表示されることになる。
信号処理部14は、頭部位置(x,y,z)におけるzの値の増大に伴って(即ち距離dの増大に伴って)距離Lも増大するように、且つ、頭部位置(x,y,z)におけるzの値の減少に伴って(即ち距離dの減少に伴って)距離Lも減少するように、仮想視点VSを移動させる。図7(a)に、“d=dA”であるときの実空間及び仮想空間の様子を示し、図7(b)に、“d=dB”であるときの実空間及び仮想空間の様子を示す。ここで “dA<dB”である。“d=dA”であるとき“L=LA”となり、“d=dB”であるとき“L=LB”となる。“dA<dB”であるため“LA<LB”である。距離Lが小さいほど、仮想視点VSから見える三次元オブジェクトOBJの像が大きくなり、距離Lが大きいほど、仮想視点VSから見える三次元オブジェクトOBJの像が小さくなる。故に、“d=dA”であるときには、三次元オブジェクトOBJの二次元オブジェクト像OBJ2DAを含む図7(c)の画像IOUTAが出力画像IOUTとして得られ、“d=dB”であるときには、三次元オブジェクトOBJの二次元オブジェクト像OBJ2DBを含む図7(d)の出力画像IOUTBが出力画像IOUTとして得られる。出力画像IOUTにおいて、二次元オブジェクト像OBJ2DAの方が二次元オブジェクト像OBJ2DBよりも大きい。
二次元オブジェクト像が大きく表示される状況下においては、ユーザ2がオブジェクトの細部を観察可能な状態にあるため、比較的高い解像度の三次元画像データを用いて出力画像IOUTを生成すべきである。一方、二次元オブジェクト像が小さく表示される状況下においては、出力画像IOUTの生成元である三次元画像データの解像度はそれほど高くなくても問題は少ない。これを考慮し、処理制御部23は、出力画像IOUTの生成に用いる三次元画像データの解像度を、計測頭部位置に基づく距離d又は距離Lに応じて制御する。この際、処理制御部23は、出力画像IOUTの生成に用いる三次元画像データの解像度を、距離d又は距離Lの増大に伴って段階的に低減することができる。以下では、画像データDH及びDLの解像度を、夫々、第1及び第2解像度と呼ぶ。
制御用テーブル17には、距離d又は距離Lと要求解像度との対応関係を規定するテーブルデータが格納されており、距離d又は距離Lが定まれば要求解像度が定まる。要求解像度は、距離d又は距離Lの減少に伴って増大する。処理制御部23は、画像データDLの解像度である第2解像度が要求解像度以上であればバッファ16に格納された三次元画像データDLを選択し、第2解像度が要求解像度よりも低ければバッファ15に格納された三次元画像データDHを選択する。3D2D変換部22は、処理制御部23にて選択された三次元画像データを用いて出力画像IOUTを生成する。
図8を参照して電子機器1の動作手順を説明する。図8は、第1実施形態に係る電子機器1の動作フローチャートである。電子機器1の起動後、まずステップS11において、信号処理部14により記憶装置13から原三次元画像データDHが読み出され、続くステップS12において、解像度変換部21により原三次元画像データDHから低解像度の三次元画像データDLが生成される。尚、図8の動作例及び後述の図12の動作例では、画像データDHの中に、第1〜第n三次元オブジェクトについての第1解像度を有する第1〜第n三次元オブジェクトデータが含まれているものとする(nは2以上の整数)。解像度変換部21は、各三次元オブジェクトデータの解像度を低下させることができる。結果、画像データDLには、第1〜第n三次元オブジェクトについての第2解像度を有する第1〜第n三次元オブジェクトデータが含まれることになる。解像度変換部21は、公知の間引き処理を用いて画像データDHから画像データDHよりも解像度の低い三次元画像データ(本例において画像データDL)を生成することができる。画像データDHがボクセル形式の三次元画像データである場合には、単純に画像データDH中の一部のボクセルを間引けば良い。画像データDHがポリゴンモデルで表現された三次元画像データである場合には、周知のedge-collapseの方法等を用いて間引き処理を実現すれば良い。
画像データDLの生成後、出力画像IOUTの描画処理が開始される(ステップS13)。この描画を行うために、ステップS14にて計測部12により頭部位置が計測され、計測された頭部位置に応じた仮想視点VSがステップS15にて設定(過去の設定内容の更新を含む)される。続くステップS16において、信号処理部14は、第1〜第n三次元オブジェクトの中から描画を行うべき1つの三次元オブジェクトを選択する(ここで選択された三次元オブジェクトを選択オブジェクトと呼ぶ)。
その後、ステップS17において、処理制御部23は、第2解像度が選択オブジェクトに対する要求解像度以上であるか否かを判定する。第2解像度が選択オブジェクトに対する要求解像度以上である場合には(ステップS17のY)、ステップS18の描画処理が行われ、第2解像度が選択オブジェクトに対する要求解像度未満である場合には(ステップS17のN)、ステップS19の描画処理が行われる。描画は、出力画像IOUTの画像データの決定及び表示部18における表示を含む。
ステップS18において、変換部22は、三次元画像データDLを用いて選択オブジェクトの描画を行う。即ち、ステップS18において、変換部22は、計測頭部位置に基づき、三次元画像データDLに含まれる、選択オブジェクトについての第2解像度の三次元オブジェクトデータから、選択オブジェクトの二次元オブジェクト像を生成し、生成二次元オブジェクト像を出力画像IOUT内に含める。
ステップS19において、変換部22は、三次元画像データDHを用いて選択オブジェクトの描画を行う。即ち、ステップS19において、変換部22は、計測頭部位置に基づき、三次元画像データDHに含まれる、選択オブジェクトについての第1解像度の三次元オブジェクトデータから、選択オブジェクトの二次元オブジェクト像を生成し、生成二次元オブジェクト像を出力画像IOUT内に含める。ステップS18及びS19の描画内容は表示部18の表示に反映される。
ステップS18又はS19の描画処理後、ステップS20において、信号処理部14は、第1〜第n三次元オブジェクトの全ての描画が完了したか否かを判断し、その全ての描画が完了している場合にはステップS21への移行を発生させるが、そうでない場合は、ステップS16に戻って、未だ描画されていない三次元オブジェクトを新たな選択オブジェクトに設定した上でステップS16以降の処理を再度実行する。第1〜第n三次元オブジェクトの全ての描画が完了した時点では、出力画像IOUTの中に、第1〜第n三次元オブジェクトについての第1〜第n二次元オブジェクト像が含まれることになる。
出力画像IOUTの描画は、所定の表示フレームレートで順次更新実行される。ステップS21では、出力画像IOUTの更新表示を該表示フレームレートで行うための同期処理(待機処理)が行われ、その後、ステップS14に戻って、ステップS14〜S21の処理が繰り返し実行される。
図8の動作例によれば、ステップS18の描画処理が適用される三次元オブジェクトとステップS19の描画処理が適用される三次元オブジェクトが、第1〜第n三次元オブジェクトの中に混在しうる。これについて説明を加える。第1〜第n三次元オブジェクトについての距離Lを、夫々、記号L[1]〜L[n]で表す。第i三次元オブジェクトが選択オブジェクトであるとき、処理制御部23は、距離L[i]に対応する要求解像度を選択オブジェクトに対する要求解像度として制御用テーブル17から求める。続いて、処理制御部23は、第2解像度が距離L[i]に対応する要求解像度以上である場合には、選択オブジェクト(第i三次元オブジェクト)についてステップS18の描画処理を行わせる一方で、第2解像度が距離L[i]に対応する要求解像度未満である場合には、選択オブジェクト(第i三次元オブジェクト)についてステップS19の描画処理を行わせる(iは整数)。結果例えば、図9に示す如く“L[1]>L[2]”であるとき、第1三次元オブジェクトOBJ1に対してはステップS18の描画処理が適用されるが、第2三次元オブジェクトOBJ2に対してはステップS19の描画処理が適用されるといったことが生じうる。
このように、第1〜第n三次元オブジェクトデータを基づき第1〜第n二次元オブジェクト像を生成して出力画像IOUTを生成する際、信号処理部14は、第i二次元オブジェクト像の生成に用いる第i三次元オブジェクトデータの解像度を距離L[i]に応じて制御することができ、その制御(その制御を実現する処理)を三次元オブジェクトごとに行うことができる(ここにおけるiは1以上n以下の整数)。
尚、距離Lに依存することなく距離dのみに基づいて要求解像度を決定することも可能である。この場合、第1〜第n三次元オブジェクトに対する要求解像度は共通になるため、第1〜第n三次元オブジェクトの全てに対し共通してステップS18又はS19の描画処理が実行される。
本実施形態によれば、頭を動かすことで頭部位置に応じた三次元オブジェクトの画像が二次元表示されるため、三次元表示を行うための専用のハードウェアが無くても、簡便で直感的な三次元オブジェクトの表示が可能となる。ところで、ユーザ2及び表示画面間の物理的な距離dが大きい場合、ユーザ2は表示画面の細部をみにくくなるため、高い解像度でのオブジェクト描画はあまり必要とならない。また、仮想空間上での距離Lが大きい場合、仮想視点VSから見える三次元オブジェクトは小さく、結果、表示される二次元オブジェクト像は小さくなるため、この場合も、高い解像度でのオブジェクト描画はあまり必要とならない。一方で、三次元画像データを二次元化するための3D2D変換処理は当然に解像度が高いほど演算負荷が大きくなる。本実施形態では、距離d又はLに応じて二次元変換後の適正画質(必要画質)を判断し、視覚的に必要な画質を確保した上で(視覚的に違和感のない範囲で)なるだけ低解像度のデータを用いて二次元画像(出力画像IOUT)を生成する。このため、視覚的に必要な画質を確保した上で(視覚的に違和感のない範囲で)、3D2D変換処理の演算量を抑制することが可能となる。この抑制は、電子機器1が演算資源に乏しい携帯型端末である場合に特に有益である。また、図8のステップS16〜S19の如く、オブジェクトごとに解像度を制御する方法を用いれば、部分的であっても上記演算量を抑制することが可能となる(一部の三次元オブジェクトに対してだけでも解像度低減制御が見込めるため)。
尚、三次元画像データ(DH、DL)に複数の三次元オブジェクトが含まれる場合を想定したが、三次元画像データ(DH、DL)に含まれる三次元オブジェクト及び三次元オブジェクトデータは1つであっても良い(即ち、上述の“n”は1であっても良い)。
また、上述の例では、第1解像度の三次元画像データDHと第2解像度の三次元画像データDLとを選択的に用いて出力画像IOUTを生成しているが、互いに解像度の異なる3以上の三次元画像データを選択的に用いて出力画像IOUTを生成するようにしても良い。例えば、解像度変換部21にて、第1解像度の三次元画像データ(即ち画像データDH)から、間引き処理によって、第2解像度の三次元画像データ(即ち画像データDL)と、第2解像度よりも低い第3解像度の三次元画像データを生成する。そして、処理制御部23は、制御用テーブル17を用いて計測頭部位置に応じた要求解像度(距離d又はLに応じた要求解像度)を決定する。上述したように、三次元オブジェクトごとに要求解像度を決定することができる。そして、第3解像度がステップS16の選択オブジェクトに対応する要求解像度以上である場合、変換部22は、第3解像度の三次元画像データを用いて選択オブジェクトの描画を行うと良い(即ち、第3解像度の三次元画像データに含まれる、選択オブジェクトについての第3解像度の三次元オブジェクトデータから、選択オブジェクトの二次元オブジェクト像を生成し、生成二次元オブジェクト像を出力画像IOUT内に含めると良い)。ステップS16の選択オブジェクトに対応する要求解像度が第3解像度よりも高いが第2解像度以下である場合には、ステップS18の描画処理を行えば良く、ステップS16の選択オブジェクトに対応する要求解像度が第2解像度よりも高い場合には、ステップS19の描画処理を行えば良い。
また、上述の例では、zの値の変化に連動して距離Lを変化させているが、x又はyの値の変化に依存して距離Lが変化するように、仮想視点VSを設定しても構わない。
<<第2実施形態>>
本発明の第2実施形態を説明する。第2実施形態は、第1実施形態を基礎とする実施形態であり、第2実施形態において特に述べない事項に関しては、矛盾なき限り、第1実施形態の記載が第2実施形態にも適用される。
今、時刻t1と時刻t1よりも後の時刻t2を想定する。信号処理部14は、時刻t1に計測された頭部位置を仮想空間上にマッピングすることで、時刻t1の仮想視点VSである仮想視点VS1を設定する。仮想視点の設定方法は第1実施形態で述べた通りである。3D2D変換部22は、仮想空間において三次元オブジェクトOBJを仮想視点VS1に投影することで時刻t1の出力画像IOUTを生成する。図10の二次元画像410は、時刻t1の出力画像IOUTの例である。第2実施形態では、時刻t1の出力画像IOUTの画像データが第2データバッファ16に保持される。
時刻t2に至ると、信号処理部14は、時刻t2に計測された頭部位置を仮想空間上にマッピングすることで、時刻t2の仮想視点VSである仮想視点VS2を設定する。3D2D変換部22は、仮想空間において三次元オブジェクトOBJを仮想視点VS2に投影することで時刻t2の出力画像IOUTを生成することができる。ここで、三次元オブジェクトOBJを仮想視点VS2に投影することで時刻t2の出力画像IOUTを生成する処理を、便宜上、第1生成処理と呼ぶ。但し、信号処理部14は、第1生成処理によって時刻t2の出力画像IOUTを生成するのではなく、バッファ16に保持された時刻t1の出力画像IOUTの画像データから時刻t2の出力画像IOUTを生成する第2生成処理を行うこともできる。
信号処理部14は、時刻t2の計測頭部位置に基づき時刻t2の出力画像IOUTを生成する際、時刻t1の計測頭部位置及び時刻t2の計測頭部位置に応じ、第1生成処理又は第2生成処理を選択的に実行する。具体的には、信号処理部14は、時刻t1及びt2間の視点変動量を求め、視点変動量が所定の基準量VREFよりも大きい場合には第1生成処理を用いて時刻t2の出力画像IOUTを生成し、視点変動量が基準量VREFよりも小さい場合には第2生成処理を用いて時刻t2の出力画像IOUTを生成する。視点変動量が基準量VREFと一致する場合、第1及び第2生成処理のどちらを用いても良い。
視点変動量は、実空間における、時刻t1の計測頭部位置から時刻t2の計測頭部位置への変動量VREALである。或いは、視点変動量は、仮想空間における、時刻t1の仮想視点VS1から時刻t2の仮想視点VS2への変動量VVTLである。仮想視点VSは計測頭部位置に依存するのであるから、変動量(仮想変動量)VVTLは変動量(実変動量)VREALに依存する。基準量VREFは、制御用テーブル17に保持されている。基準量VREFは、固定値を有していても良いが、時刻t1又はt2の計測頭部位置、或いは、時刻t1又はt2の仮想視点VSの位置に依存しうる。
図11(a)の二次元画像420は、第1生成処理によって得られた時刻t2の出力画像IOUTの例であり、図11(b)の二次元画像430は、第2生成処理によって得られた時刻t2の出力画像IOUTの例である。第2生成処理は、時刻t1の出力画像IOUTである二次元画像410を仮想視点VS1及びVS2間の差に応じて加工する加工処理を含み、加工処理後の二次元画像410が二次元画像430として生成される。当該加工処理は、時刻t1の二次元画像410に対する線形変換を含み、例えば、二次元画像410に含まれる二次元オブジェクト像を、仮想視点VS1及びVS2間の差に応じ、二次元画像410内で平行移動、回転、拡大又は縮小させる処理を含む(二次元画像430は二次元オブジェクト像の平行移動を介して得られたものである)。例えば、時刻t1及びt2間で距離d及びLが減少した場合において、第2生成処理を行うとき、二次元画像410に含まれる二次元オブジェクト像を拡大することで二次元画像430を生成しても良い。
視点変動量が比較的大きい場合、三次元オブジェクトOBJの見え方に対する変化が比較的大きくなるはずであるから、三次元画像データから二次元の出力画像IOUTを生成しなおすべきである。一方、視点変動量が比較的小さい場合、三次元オブジェクトOBJの見え方に対する変化は比較的小さく、時刻t1の出力画像IOUT(例えば図10の画像410)を平行移動等することで時刻t2の出力画像IOUT(例えば図11(b)の画像430)を生成してもユーザ2にとって違和感は少ない。これを考慮し、第2実施形態では上述の如く、三次元画像データを二次元化する3D2D変換処理の実行要否を視点変動量に応じて判断し、視覚的に違和感のない範囲で、なるだけ3D2D変換処理の実行を抑制する。これにより、出力画像IOUTを生成するための演算量を抑制することが可能となる。この抑制は、電子機器1が演算資源に乏しい携帯型端末である場合に特に有益である。
図12を参照して電子機器1の動作手順を説明する。図12は、第2実施形態に係る電子機器1の動作フローチャートである。電子機器1の起動後、まずステップS31において、信号処理部14により記憶装置13から三次元画像データ(原三次元画像データDH)が読み出され、続くステップS32において、出力画像IOUTの描画処理が開始される。描画処理の開始後、ステップS33〜S40から成る処理群が周期的に実行される。当該処理群が第i回目に実行されるタイミングが時刻t1に相当し、当該処理群が第(i+1)回目に実行されるタイミングが時刻t2に相当すると考えればよい。当該処理群が第(i+2)回目、第(i+3)回目、・・・に実行されるタイミングが時刻t2に相当すると考えることもできる。説明の具体化のため、時刻t1において第1生成処理が行われてデータバッファ16に時刻t1の出力画像IOUTの画像データが保持されていることを想定し、時刻t2にて行われるステップS33〜S40の処理内容を説明する。
ステップS33にて計測部12により時刻t2の頭部位置が計測され、計測された頭部位置に応じた仮想視点VS2がステップS34にて設定(過去の設定内容の更新を含む)される。続くステップS35において、信号処理部14は、第1〜第n三次元オブジェクトの中から描画を行うべき1つの三次元オブジェクトを選択する。その後、ステップS36において、処理制御部23は、時刻t1及びt2間の視点変動量が選択オブジェクトに対応する基準量VREF以上であるか否かを判定する。時刻t1及びt2間の視点変動量が選択オブジェクトに対応する基準量VREF以上の場合には(ステップS36のY)、ステップS37の描画処理が行われ、時刻t1及びt2間の視点変動量が選択オブジェクトに対応する基準量VREFより小さい場合には(ステップS36のN)、ステップS38の描画処理が行われる。
ステップS37において、変換部22は、三次元画像データ(例えば三次元画像データDH又はDL)を用いて選択オブジェクトの描画を行う。ステップS37の描画処理は、第1生成処理を含む。即ち、ステップS37において、変換部22は、時刻t2の計測頭部位置に基づき、三次元画像データに含まれる、選択オブジェクトについての三次元オブジェクトデータから、選択オブジェクトの二次元オブジェクト像を生成して、生成二次元オブジェクト像を時刻t2の出力画像IOUT内に含める。
ステップS38において、変換部22は、バッファ16に保持されている二次元の画像データを用いて選択オブジェクトの描画を行う。ステップS38の描画処理は、第2生成処理を含む。即ち、ステップS38において、信号処理部14は、バッファ16に保持されている時刻t1の出力画像IOUTの画像データを読み出すと共に選択オブジェクトに対応する二次元オブジェクト像を時刻t1の出力画像IOUTから抽出し、抽出した二次元オブジェクト像に対し仮想視点VS1及びVS2間の差に応じた上記加工処理を施すことで時刻t2の選択オブジェクトの二次元オブジェクト像を生成して、生成二次元オブジェクト像を出力画像IOUT内に含める。各三次元オブジェクトに対応する各二次元オブジェクト像を時刻t1の出力画像IOUTから個別に抽出可能なように、バッファ16は出力画像IOUTの画像データを保持しているものとする。ステップS37及びS38の描画内容は表示部18の表示に反映される。
ステップS37又はS38の描画処理後、ステップS39において、信号処理部14は、第1〜第n三次元オブジェクトの全ての描画が完了したか否かを判断し、その全ての描画が完了している場合にはステップS40への移行を発生させるが、そうでない場合は、ステップS35に戻って、未だ描画されていない三次元オブジェクトを新たな選択オブジェクトに設定した上でステップS35以降の処理を再度実行する。第1〜第n三次元オブジェクトの全ての描画が完了した時点では、時刻t2の出力画像IOUTの中に、第1〜第n三次元オブジェクトについての第1〜第n二次元オブジェクト像が含まれることになる。
出力画像IOUTの描画は、所定の表示フレームレートで順次更新実行される。ステップS40では、出力画像IOUTの更新表示を該表示フレームレートで行うための同期処理(待機処理)が行われ、その後、ステップS33に戻って、ステップS33〜S40の処理が繰り返し実行される。
時刻t2において第i三次元オブジェクトに対しステップS38の描画処理が適用された後、時刻t2よりも後の時刻t3に至った場合、時刻t1を基準として時刻t2について行う処理と同様の処理を、時刻t1を基準として時刻t3に対しても行うことができる。従って例えば、時刻t1より後の或る期間中において視点移動量が常に基準量VREF未満に維持されていたならば、当該期間中の各出力画像IOUTは時刻t1の出力画像IOUTの画像データから生成されることになる。
図12の動作例によれば、ステップS37の描画処理(即ち第1生成処理)が適用される三次元オブジェクトとステップS38の描画処理(即ち第2生成処理)が適用される三次元オブジェクトが、第1〜第n三次元オブジェクトの中に混在しうる。これについて説明を加える。今、図13に示す如く、時刻t1の仮想視点VS1と第1及び第2三次元オブジェクトであるオブジェクトOBJ1及びOBJ2との距離L[1]及びL[2]が、“L[1]>L[2]”を満たす場合を考える。“L[1]>L[2]”を満たす距離L[1]及びL[2]は、夫々、時刻t2の仮想視点VS2とオブジェクトOBJ1及びOBJ2との距離Lであっても良い。この場合において、仮想視点VSが仮想視点VS1から仮想視点VS2へと移動したとき、オブジェクトOBJ2の仮想視点VSへの投影像は大きく変化するが、オブジェクトOBJ1の仮想視点VSへの投影像はあまり変化しないと考えられる。つまり、オブジェクトOBJ2に対して第2生成処理を適用すると視覚的な違和感が大きくなるが、オブジェクトOBJ1に対しては第2生成処理を適用しても視覚的な違和感は少ないと言える。これを考慮し、信号処理部14は、オブジェクトOBJ1に対しては第2生成処理を適用する一方で、オブジェクトOBJ2に対しては第1生成処理を適用することができる。
具体的には例えば、信号処理部14は、第i三次元オブジェクトに対してステップS37の描画処理(即ち第1生成処理)とステップS38の描画処理(即ち第2生成処理)のどちらを実行するのかを、距離L[i]と時刻t1及びt2間の視点移動量VVTLに応じて選択すれば良く、この選択を三次元オブジェクトごとに実行すればよい(ここにおけるiは1以上n以下の整数)。これを図12のステップS36に適用する場合、視点移動量VVTLと対比されるべき基準量VREFを距離L[i]に依存して変化させればよい。即ち、選択オブジェクトが第i三次元オブジェクトであるとき、信号処理部14は、距離L[i]に依存して基準量VREFを設定し、時刻t1及びt2間の視点変動量VVTLが設定基準量VREF以上の場合に(ステップS36のY)ステップS37の描画処理を行い、時刻t1及びt2間の視点変動量VVTLが設定基準量VREFより小さい場合に(ステップS36のN)ステップS38の描画処理を行えば良い。制御用テーブル17に、距離L[i]と基準量VREFとの対応関係を示すデータを格納しておいても良い。オブジェクトごとに第1及び第2生成処理の切り替えを行うようにすることで、部分的にでも、出力画像生成用の演算量を抑制することができる(一部の三次元オブジェクトに対してだけでも3D2D変換処理の不実行を見込めるため)。
但し、基準量VREFを固定値とし、視点変動量(VREAL又はVVTL)が固定値を持つ基準量VREF以上であるか否かに応じて、第1〜第n三次元オブジェクトの全てに対し共通してステップS37又はS38の描画処理を実行するようにしても良い。
また、第1実施形態でも述べたように、三次元画像データに含まれる三次元オブジェクト及び三次元オブジェクトデータは1つであっても良い(即ち、上述の“n”は1であっても良い)。
第2実施形態の技術を第1実施形態の技術と組み合わせても良い。即ち、第2実施形態においても、第1実施形態の如く、原三次元画像データDHを元に解像度の異なる複数の三次元画像データ(DHを含む)を取得し、出力画像IOUTの生成に用いる三次元画像データの解像度を計測頭部位置に応じて制御するようにしても良い。
<<変形等>>
本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態に適用可能な注釈事項として、以下に、注釈1及び注釈2を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[注釈1]
対象位置計測部12による位置計測の対象物は、ユーザ2の頭以外のユーザ2の一部(例えば、ユーザ2の顔、胴体、眼)であっても良いし、ユーザ2以外の物体(例えば、ユーザ2が操作する任意の物体)であっても良い。
[注釈2]
電子機器1を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。電子機器1にて実現される機能の全部又は一部である任意の特定の機能をプログラムとして記述して、該プログラムを電子機器1に搭載可能なフラッシュメモリに保存しておき、該プログラムをプログラム実行装置(例えば、電子機器1に搭載可能なマイクロコンピュータ)上で実行することによって、その特定の機能を実現するようにしてもよい。上記プログラムは任意の記録媒体(不図示)に記憶及び固定される。上記プログラムを記憶及び固定する記録媒体(不図示)は電子機器1と異なる機器(サーバ機器等)に搭載又は接続されても良い。
1 電子機器
2 ユーザ
11 計測用カメラ
12 対象位置計測部
13 記憶装置
14 信号処理部
18 表示部
21 解像度変換部
22 3D2D変換部
23 処理制御部

Claims (10)

  1. 実空間内における対象物の位置を計測する計測部と、
    計測位置に応じた二次元の出力画像を三次元画像データから生成する信号処理部と、
    前記出力画像を表示する表示部と、を備え、
    前記信号処理部は、前記出力画像の生成に用いる前記三次元画像データの解像度を前記計測位置に応じて制御する制御部を有する
    ことを特徴とする電子機器。
  2. 前記信号処理部は、
    前記計測位置に基づく前記対象物及び当該電子機器間の距離である実距離に応じて、前記解像度を制御する、或いは、
    前記計測位置に基づく三次元の仮想空間内における仮想視点と前記三次元画像データに基づく三次元オブジェクトとの前記仮想空間内における距離である仮想距離に応じて、前記解像度を制御する
    ことを特徴とする請求項1に記載の電子機器。
  3. 前記制御部は、前記実距離又は前記仮想距離の増大に伴って段階的に前記解像度を低減する
    ことを特徴とする請求項2に記載の電子機器。
  4. 前記信号処理部は、前記計測位置に応じて前記仮想視点を前記仮想空間内に設定し、前記仮想空間において前記三次元オブジェクトを前記仮想視点に投影することで前記出力画像を生成する
    ことを特徴とする請求項2又は請求項3に記載の電子機器。
  5. 前記信号処理部は、間引き処理により第1解像度の三次元画像データから前記第1解像度よりも低い解像度の三次元画像データを生成することで、解像度の異なる複数の三次元画像データを取得し、前記計測位置に応じ前記複数の三次元画像データの内の何れかを選択的に用いて前記出力画像を生成する
    ことを特徴とする請求項1乃至請求項4の何れかに記載の電子機器。
  6. 実空間内における対象物の位置を計測する計測部と、
    計測位置に応じた二次元の出力画像を三次元画像データから生成する信号処理部と、
    前記出力画像を表示する表示部と、を備え、
    前記信号処理部は、第1時刻の計測位置である第1計測位置に基づき前記三次元画像データから第1出力画像を生成した後、第2時刻の計測位置である第2計測位置に基づき第2出力画像を生成する際、
    前記三次元画像データから前記第2出力画像を生成する第1処理、又は、前記第1出力画像から前記第2出力画像を生成する第2処理を、前記第1及び第2時刻の計測位置に応じて選択的に実行する
    ことを特徴とする電子機器。
  7. 前記信号処理部は、前記第2計測位置に基づき前記第2出力画像を生成する際、前記第1計測位置から前記第2計測位置への変動量に応じて、前記第1処理又は前記第2処理を選択的に実行する
    ことを特徴とする請求項6に記載の電子機器。
  8. 前記信号処理部は、前記第2計測位置に基づき前記第2出力画像を生成する際、前記変動量が所定の基準量よりも大きいときには前記第1処理を実行し、前記変動量が前記基準量よりも小さいときには前記第2処理を実行する
    ことを特徴とする請求項7に記載の電子機器。
  9. 前記信号処理部は、前記第1及び第2計測位置に応じた第1及び第2仮想視点を三次元の仮想空間内に設定し、前記第2計測位置に基づき前記第2出力画像を生成する際、前記変動量に依存する前記第1仮想視点から前記第2仮想視点への仮想変動量が所定の基準量よりも大きいときには前記第1処理を実行し、前記仮想変動量が前記基準量よりも小さいときには前記第2処理を実行する
    ことを特徴とする請求項7に記載の電子機器。
  10. 前記信号処理部は、
    前記仮想空間において前記三次元画像データに基づく三次元オブジェクトを前記第1仮想視点に投影することで前記第1出力画像を生成し、
    前記第1処理では、前記仮想空間において前記三次元オブジェクトを前記第2仮想視点に投影することで前記第2出力画像を生成し、
    前記第2処理では、前記第1及び第2仮想視点間の差に応じて前記第1出力画像を加工することで前記第2出力画像を生成する
    ことを特徴とする請求項9に記載の電子機器。
JP2012186598A 2012-08-27 2012-08-27 電子機器 Pending JP2014044569A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012186598A JP2014044569A (ja) 2012-08-27 2012-08-27 電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012186598A JP2014044569A (ja) 2012-08-27 2012-08-27 電子機器

Publications (1)

Publication Number Publication Date
JP2014044569A true JP2014044569A (ja) 2014-03-13

Family

ID=50395787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012186598A Pending JP2014044569A (ja) 2012-08-27 2012-08-27 電子機器

Country Status (1)

Country Link
JP (1) JP2014044569A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190017653A (ko) * 2017-08-10 2019-02-20 캐논 가부시끼가이샤 화상 처리장치, 방법 및 컴퓨터 프로그램
CN111767844A (zh) * 2020-06-29 2020-10-13 北京百度网讯科技有限公司 用于三维建模的方法和装置
JPWO2022004233A1 (ja) * 2020-07-01 2022-01-06
JP2022083707A (ja) * 2020-11-25 2022-06-06 株式会社Nttドコモ 情報処理システム
JP2023163133A (ja) * 2022-04-27 2023-11-09 キヤノン株式会社 画像処理システム、画像処理方法及びコンピュータプログラム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102316061B1 (ko) * 2017-08-10 2021-10-22 캐논 가부시끼가이샤 화상 처리장치, 방법 및 컴퓨터 프로그램
CN109389545A (zh) * 2017-08-10 2019-02-26 佳能株式会社 图像处理装置、方法和存储介质
JP2019036790A (ja) * 2017-08-10 2019-03-07 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
CN109389545B (zh) * 2017-08-10 2023-05-26 佳能株式会社 图像处理装置、方法和存储介质
KR20190017653A (ko) * 2017-08-10 2019-02-20 캐논 가부시끼가이샤 화상 처리장치, 방법 및 컴퓨터 프로그램
JP7192017B2 (ja) 2020-06-29 2022-12-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 3次元モデリングのための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
JP2021119466A (ja) * 2020-06-29 2021-08-12 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 3次元モデリングのための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
CN111767844A (zh) * 2020-06-29 2020-10-13 北京百度网讯科技有限公司 用于三维建模的方法和装置
US11697428B2 (en) 2020-06-29 2023-07-11 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for 3D modeling
CN111767844B (zh) * 2020-06-29 2023-12-29 阿波罗智能技术(北京)有限公司 用于三维建模的方法和装置
JPWO2022004233A1 (ja) * 2020-07-01 2022-01-06
JP7740241B2 (ja) 2020-07-01 2025-09-17 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
US12541912B2 (en) 2020-07-01 2026-02-03 Sony Group Corporation Information processing apparatus and information processing method
JP2022083707A (ja) * 2020-11-25 2022-06-06 株式会社Nttドコモ 情報処理システム
JP7529950B2 (ja) 2020-11-25 2024-08-07 株式会社Nttドコモ 情報処理システム
JP2023163133A (ja) * 2022-04-27 2023-11-09 キヤノン株式会社 画像処理システム、画像処理方法及びコンピュータプログラム
JP7730851B2 (ja) 2022-04-27 2025-08-28 キヤノン株式会社 画像処理システム、画像処理方法及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
TWI817335B (zh) 立體影像播放裝置及其立體影像產生方法
US11158108B2 (en) Systems and methods for providing a mixed-reality pass-through experience
KR102358932B1 (ko) 시선 위치에 기초한 안정 평면 결정
CN104322060B (zh) 用于深度图的低等待时间变形的系统、方法和装置
JP5672109B2 (ja) 撮像装置及び撮像方法、並びにプログラム
US20110243388A1 (en) Image display apparatus, image display method, and program
US20200106959A1 (en) Panoramic light field capture, processing, and display
US20230196658A1 (en) Enclosed multi-view visual media representation
JP7353782B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN107908278A (zh) 一种虚拟现实vr界面生成的方法和装置
JP2014044569A (ja) 電子機器
JP7505481B2 (ja) 画像処理装置および画像処理方法
CN109407824A (zh) 人体模型的同步运动方法与装置
CN116841350A (zh) 一种3d显示方法以及装置
KR101632514B1 (ko) 깊이 영상 업샘플링 방법 및 장치
JP5805013B2 (ja) 撮像画像表示装置、撮像画像表示方法、プログラム
US20240203012A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
CN119251368A (zh) 三维渲染方法、设备、存储介质及程序产品
WO2024230463A1 (zh) 图像的处理方法、装置和系统
JP2011198138A (ja) 漫画作成支援装置、漫画作成支援方法およびプログラム
JP2011239178A (ja) 撮像装置
US12256058B2 (en) Image processing method and virtual reality display system
CN121458922A (zh) 显示方法与电子设备
CN121100363A (zh) 场序制显示器中的重投影
CN117784998A (zh) 一种对象展示方法及终端设备