JP2025028130A - 表示制御装置、表示制御方法、及びプログラム - Google Patents
表示制御装置、表示制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2025028130A JP2025028130A JP2024216195A JP2024216195A JP2025028130A JP 2025028130 A JP2025028130 A JP 2025028130A JP 2024216195 A JP2024216195 A JP 2024216195A JP 2024216195 A JP2024216195 A JP 2024216195A JP 2025028130 A JP2025028130 A JP 2025028130A
- Authority
- JP
- Japan
- Prior art keywords
- virtual viewpoint
- gaze point
- information
- point object
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/60—Shadow generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、表示制御装置、表示制御装置の制御方法、及びプログラムに関する。
近年、複数の物理カメラを異なる位置に設置して同期撮影し、撮影により得られた複数の画像を用いて、仮想的なカメラ視点から仮に撮影したとした場合の仮想視点画像を生成する技術が注目されている。特許文献1では、被写体を取り囲むように複数のカメラを配置して被写体を撮影した画像を用いて、仮想視点画像を生成する技術が開示されている。
また、特許文献1には、ユーザにより仮想的なカメラの位置や仮想的なカメラからどこを注視しているかを示す注視点の位置が指定されることが開示されている。
また、特許文献1には、ユーザにより仮想的なカメラの位置や仮想的なカメラからどこを注視しているかを示す注視点の位置が指定されることが開示されている。
特許文献1では、例えば、仮想カメラが被写体の視点に設定される場合には、ユーザが、仮想空間上の注視点の位置を直感的に把握しにくいという課題があった。
そこで本開示は、上記の問題点を鑑み、ユーザにより仮想空間上の仮想視点の注視点の位置の把握を容易にする技術を提供することを目的とする。
本開示の表示制御装置の一態様は、複数の撮像装置の撮像により得られた複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想視点の注視点の位置を示す情報を取得する取得手段と、前記注視点を示す注視点オブジェクトと、前記注視点の投影面上の位置を示す投影注視点オブジェクトと、を含む画像を表示させる表示制御手段と、を有する。
本開示によれば、ユーザが仮想空間上の仮想視点の注視点の位置を容易に把握することができる。
以下、本開示の実施形態について、図面を参照しながら説明する。なお、以下の実施形態に記載される構成要素は、実施の形態の一例を示すものであり、本開示をそれらのみに限定するものではない。また、実施形態で説明されている特徴の組み合わせの全てが解決手段に必須のものとは限らない。
仮想視点画像とは、ユーザ及び/又は専任のオペレータ等が自由に仮想カメラの位置及び姿勢を操作することによって生成される画像であり、自由視点画像や任意視点画像などとも呼ばれる。また、本開示では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、特に断りが無い限り、画像という文言が動画と静止画の両方の概念を含むものとして説明する。
仮想カメラとは、撮像領域の周囲に実際に設置された複数の撮像装置とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮像領域に関連付けられる仮想空間内に設定された仮想視点から撮像した画像であるとみなすことができる。そして、仮想的な当該撮像における視点の位置及び向きは仮想カメラの位置及び向きとして表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮像画像を模擬した画像であると言える。また本実施形態では、経時的な仮想視点の変遷の内容を、仮想カメラパスと表記する。ただし、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。
撮像装置は、物理カメラを有していればよい。また、撮像装置は、物理カメラの他、様々な画像処理を行う機能を有していてもよい。例えば、撮像装置は、前景背景分離処理を行う処理部を有していてもよい。また、撮像装置は、撮像画像のうち、一部の領域の画像を伝送する伝送制御を行う制御部を有していてもよい。また、撮像装置は、複数の物理カメラを有していてもよい。
<実施形態1>
図1は、本実施形態に係る画像処理システム100を示す図である。画像処理システム100は、複数の撮像装置110と、画像生成装置120と、表示制御装置130と、ディスプレイ140と、を有している。各撮像装置110と画像生成装置120と表示制御装置130とは、LAN(Local Area Network)ケーブル等の通信ケーブルを介して接続している。なお、本実施形態においては、通信ケーブルはLANケーブルであるものとするが、通信ケーブルは実施形態に限定されるものではない。また、画像生成装置120とディスプレイ140とは、ビデオ信号伝送ケーブルを介して接続している。
図1は、本実施形態に係る画像処理システム100を示す図である。画像処理システム100は、複数の撮像装置110と、画像生成装置120と、表示制御装置130と、ディスプレイ140と、を有している。各撮像装置110と画像生成装置120と表示制御装置130とは、LAN(Local Area Network)ケーブル等の通信ケーブルを介して接続している。なお、本実施形態においては、通信ケーブルはLANケーブルであるものとするが、通信ケーブルは実施形態に限定されるものではない。また、画像生成装置120とディスプレイ140とは、ビデオ信号伝送ケーブルを介して接続している。
撮像装置110は、例えば画像(静止画及び動画)を撮影可能なデジタルカメラである。図2は、撮像装置110の設置例を示す図である。各撮像装置110は、スタジアムなどで特定の領域を取り囲むように設置され、領域内の被写体の画像(映像)を撮影する。
撮影された画像は、撮像装置110から画像生成装置120に送信される。撮像された画像の一部の領域(例えば被写体の領域)の対応する画像のみが送信されるようにしてもよい。
撮影された画像は、撮像装置110から画像生成装置120に送信される。撮像された画像の一部の領域(例えば被写体の領域)の対応する画像のみが送信されるようにしてもよい。
画像生成装置120は、例えば、サーバ装置であり、データベース機能や、画像処理機能を備えている。画像生成装置120は、競技場内の被写体撮影開始前など予め被写体が存在しない状態の場面を撮影した画像を背景画像として蓄積する。また、画像生成装置120は、撮像装置110により得られた撮像画像を蓄積する。また、画像生成装置120は、表示制御装置130のユーザ操作により、仮想視点情報と再生時刻情報(例えばタイムコード)とを受信すると、蓄積された撮像画像に基づいて、仮想視点画像を生成する。
ここで、仮想視点情報は、仮想空間における仮想的な視点(仮想視点)の三次元的な位置と角度と注視点位置等を示す情報である。仮想視点情報は、撮影した競技場内の中央など所定の原点位置に対する相対的な位置、つまり原点位置に対する前後、左右、上下の位置情報、その所定位置からの向き、つまり前後、左右、上下を軸とする角度の方向情報とを少なくとも含むものとする。また仮想視点情報は、仮想視点位置からどこの三次元位置を注目しているかを示す注視点位置情報と、注視点位置から仮想視点位置までの距離情報を含むものとする。
ここで、仮想視点情報は、仮想空間における仮想的な視点(仮想視点)の三次元的な位置と角度と注視点位置等を示す情報である。仮想視点情報は、撮影した競技場内の中央など所定の原点位置に対する相対的な位置、つまり原点位置に対する前後、左右、上下の位置情報、その所定位置からの向き、つまり前後、左右、上下を軸とする角度の方向情報とを少なくとも含むものとする。また仮想視点情報は、仮想視点位置からどこの三次元位置を注目しているかを示す注視点位置情報と、注視点位置から仮想視点位置までの距離情報を含むものとする。
また再生時刻情報とは、時、分、秒、1秒間当たりのフレーム数などからなる撮像画像の撮影時の時刻情報であり、その再生時刻を指定することで録画された時刻のシーンが仮想視点として生成されることになる。なお、例えば1秒間当たりのフレーム数は60フレームなどとする。不図示のタイムサーバに基づいて、複数の撮像装置110は同期撮影を行っており、撮影時の時刻情報は、複数の撮像装置110において撮影のタイミングを示す。
また、画像処理装置120は、被写体の存在するシーンでは、被写体となる特定のオブジェクト等の前景を特定オブジェクト画像として画像処理により分離処理してもよい。なお、特定オブジェクトは、人物だけでなくボールなど用具の画像パターンが予め定められている物体であってもよい。
仮想視点情報に対応した仮想視点画像は、データベースで管理された背景画像と特定オブジェクト画像とから生成されるものとする。仮想視点画像の生成方式として、例えばモデルベースレンダリング(Model-Based Rendering:MBR)が用いられる。MBRとは、被写体を複数の方向から撮影した複数の撮像画像に基づいて生成される三次元形状を用いて仮想視点画像を生成する方式である。具体的には、視体積交差法、Multi-View-Stereo(MVS)などの三次元形状復元手法により得られた対象シーンの三次元形状(モデル)を利用し、仮想視点からのシーンの見えを画像として生成する技術である。なお、仮想視点画像の生成方法は、MBR以外のレンダリング手法を用いてもよい。生成された仮想視点画像は、ビデオ信号伝送ケーブルを介して、ディスプレイ140に伝送される。
表示制御装置130は、例えば、PC(Personal Computer)やタブレットである。視点コントローラ131は、仮想カメラの位置及び姿勢などのパラメータの設定を行うためのデバイスである。例えば視点コントローラ131は、マウス、キーボード、ジョイスティック、6軸コントローラ、タッチパネル、ゲームコントローラである。時刻コントローラ132は、再生時刻を設定するためのデバイスであり、例えば回転盤をそなえた操作デバイスである。視点コントローラ131と時刻コントローラ132をユーザが操作する。表示制御装置130は、視点コントローラ131と時刻コントローラ132からのユーザ操作の情報を受信する。そして、表示制御装置130は、その操作量等に応じて、仮想カメラの位置や姿勢を示す仮想視点情報や再生時刻情報に変換し、画像生成装置120に送信する。
なお、操作デバイスを用いた表示制御装置130からの出力により、連続的な移動に限らず、仮想空間上の被写体の正面位置、背面位置、上から見下ろす位置などあらかじめ設定された所定仮想視点への移動も可能である。また、再生時刻を予め設定しておくことで瞬時にその時刻へ、仮想視点が移動することも可能とするものである。また表示制御装置130は、後述する制御プログラム実行により表示部305に表示されるアプリケーションを介してユーザ操作に基づく三次元空間上のオブジェクトなどを画面表示する。
図3は、表示制御装置130のハードウェア構成を示す図である。表示制御装置130は、CPU301と、ROM302と、RAM303と、HDD304と、表示部305と、入力部306と、通信部307とを有している。CPU301は、ROM302やRAM303に記憶された制御プログラムやデータを用いて表示制御装置130の全体を制御する。なお、表示制御装置130がCPU301とは異なる1又は複数の専用のハードウェアを有し、CPU301による処理の少なくとも一部を専用のハードウェアが実行してもよい。そのような専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
ROM302は、変更を必要としないプログラムなどを格納する。RAM303は、HDD304から供給されるプログラムやデータ、及び通信部307を介して外部から供給されるデータなどを一時記憶する。また、RAM303は、CPU301の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD304は、各種データや各種プログラム等を記憶する。
表示部305は、例えば液晶ディスプレイやLED等で構成され、各種情報を表示する。入力部306は、キーボード、マウス、6軸コントローラなどを接続可能であり、ユーザによる各種操作を受け付ける。通信部307は、ネットワークを介して外部装置との通信処理を行う。なお、ネットワークとしては、イーサネット(登録商標)が挙げられる。
また、他の例としては、通信部307は、無線により外部装置との通信を行ってもよい。
システムバス308は、表示制御装置130の各部をつないで情報を伝達する。
また、他の例としては、通信部307は、無線により外部装置との通信を行ってもよい。
システムバス308は、表示制御装置130の各部をつないで情報を伝達する。
なお、後述する表示制御装置130の機能や処理は、CPU301がROM302又はHDD304に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。また、画像生成装置120のハードウェア構成は、表示制御装置130のハードウェア構成と同様である。
図4は、表示制御装置130の機能構成を示す図である。コントローラ操作取得部133は、視点コントローラ131や時刻コントローラ132を介して取得された仮想視点に対する操作情報を周期的に取得する。
コントローラ操作取得部133は、仮想視点に対する操作情報を、仮想視点移動量情報と再生時刻移動量情報に変換し第一仮想視点情報決定部134に出力する。仮想視点移動量は、現在の仮想視点の位置や仮想視点からの視線方向に対する移動量である。また、再生時刻移動量は、現在の再生時刻に対する移動量である。これらの情報は、視点コントローラ131や時刻コントローラ132に対して入力されたユーザ操作の操作量に対して、設定された変換係数により決まる。
第一仮想視点情報決定部134は、入力された仮想視点移動量情報に基づいて、ユーザ操作により指定された仮想視点の位置や仮想視点からの視線方向に対応する仮想視点情報を決定する。そして、第一仮想視点情報決定部134は、仮想視点情報を第一仮想視点情報として仮想視点オブジェクト生成部136へ出力する。第一仮想視点情報決定部134は、同様に、第一仮想視点情報を、注視点オブジェクト生成部137、投影注視点オブジェクト生成部138、第二仮想視点情報決定部142、仮想視点情報送信部144へ出力する。なお、仮想空間座標系は、各撮像装置110の座標系と同じである。例えばスタジアムなどの中心を座標系の中心としてもよいし、ユーザにより適宜設定するようにしてもよい。仮想視点情報は、この座標系において三次元方向の位置で表現される。
タイムコード決定部135は、入力された再生時刻移動量に基づいて、ユーザ操作により指定された再生時刻情報を決定し、再生時刻情報を仮想視点情報送信部144へ出力する。なお、再生時刻は各撮像装置110で撮影開始した日時を基準とする。また、再生時刻は撮影時刻そのものでもよいし、撮影開始時刻を0として撮影開始時刻からの経過した時間で表現されてもよい。
仮想視点オブジェクト生成部136は、第一仮想視点情報決定部134から第一仮想視点情報を取得する。また、仮想視点オブジェクト生成部136は、後述するオブジェクト情報保持部139より仮想視点オブジェクト情報を取得する。仮想視点オブジェクト生成部136は、第一仮想視点情報と仮想視点オブジェクト情報とに基づき仮想空間上におけるユーザ操作による仮想視点の位置と仮想視点からの視線方向とがユーザに認識可能とする仮想視点オブジェクトを生成する。仮想視点オブジェクトには仮想視点オブジェクトを表現するための形状などのデータ、その空間上の位置の情報が含まれる。また、仮想視点オブジェクト生成部136は、仮想視点オブジェクトを第二仮想視点情報決定部142へ出力する。
注視点オブジェクト生成部137は、第一仮想視点情報決定部134より第一仮想視点情報を取得する。また、注視点オブジェクト生成部137は、オブジェクト情報保持部130より注視点オブジェクト情報を取得する。注視点オブジェクト生成部137は、第一仮想視点情報に含まれる注視点位置情報と、注視点オブジェクト情報とに基づいて、仮想空間上におけるユーザ操作による仮想視点の注視点の位置がユーザに認識可能とする注視点オブジェクトを生成する。注視点オブジェクトには注視点オブジェクトを表現するための形状などのデータ、その空間上の位置の情報が含まれる。また、注視点オブジェクト生成部137は、注視点オブジェクトを第二仮想視点情報決定部142へ出力する。
投影注視点オブジェクト生成部138は、第一仮想視点情報決定部134より第一仮想視点情報を取得する。また、投影注視点オブジェクト生成部138は、オブジェクト情報保持部139より投影注視点オブジェクト情報を取得する。また投影注視点オブジェクト生成部138は、後述する面位置設定部140より投影面位置情報を取得する。投影注視点オブジェクト生成部138は、取得した情報に基づいて、仮想空間上の注視点の位置を投影面位置に投影した投影注視点の位置に対し、ユーザが認識可能とする投影注視点オブジェクトを生成する。投影注視点オブジェクトには投影注視点オブジェクトを表現するための形状などのデータ、その空間上の位置の情報が含まれる。また、投影注視点オブジェクト生成部138は、投影注視点オブジェクトを第二仮想視点情報決定部142へ出力する。
オブジェクト情報保持部139は、仮想視点オブジェクト情報、注視点オブジェクト情報、投影注視点オブジェクト情報などのオブジェクト情報をあらかじめ保持し、対応したオブジェクト情報を出力する。すなわち、オブジェクト情報保持部139は、仮想視点オブジェクト情報を仮想視点オブジェクト生成部136へ出力する。また、オブジェクト情報保持部139は、注視点オブジェクト情報を注視点オブジェクト生成部137へ出力する。また、オブジェクト情報保持部139は、投影注視点オブジェクト情報を投影注視点オブジェクト生成部138へ出力する。ここで、オブジェクト情報とは、三次元モデルであり専用ソフトなどで作成された三次元の座標を持つデータであり、三次元の座標(頂点)を複数つなぐことで立体的な形状を示すデータである。また複数の頂点をつなげた面に対して色情報やテクスチャ画像を対応付け保持しておくことでユーザに認識可能なオブジェクトとなるものとする。例えば、オブジェクト情報は、複数のポリゴンで構成されるメッシュデータでもよい。
面位置設定部140は、後述する面情報保持部141から設定された面情報に基づいて、投影する面を決定する。具体例として、スタジアムなどの高さが一定の床面(高さを0とする)位置が投影面位置として設定されるものとする。面位置設定部140は、設定された投影面位置情報を投影注視点オブジェクト生成部138へ出力する。投影面位置は、これに限られず、適宜ユーザにより指定されてもよい。例えば投影面は、構造物を構成する壁でもよいし、天井でもよい。
面情報保持部141は、三次元空間上の平面をあらかじめ保持しておき、対応した面情報を出力する。すなわち、面情報保持部141は、面情報を面位置設定部140へ出力する。ここで、面情報とはオブジェクト情報同様に、三次元モデルであり専用ソフトなどで作成された三次元の座標を持つデータであり、三次元の座標(頂点)を複数つなぐことで平面などを示すデータである。例えば、面情報は、複数のポリゴンで構成されるメッシュデータでもよい。本実施形態では、スタジアムなどの一定の床面(高さを0とする)として説明するものとする。複数の頂点をつなげた面に対して色情報やテクスチャ画像を対応付け保持しておくことでユーザに認識可能な床面となるものとする。なお、面情報とは平面の床面に限らず、複数の頂点を組み合わせることによる立体面であってもよいものとする。
第二仮想視点情報決定部142は、仮想視点オブジェクト生成部136より仮想視点オブジェクトを取得し、注視点オブジェクト生成部137より注視点オブジェクトを取得し、投影注視点オブジェクト生成部138より投影注視点オブジェクトを取得する。また、第二仮想視点情報決定部142は、第一仮想視点情報決定部134より第一仮想視点情報を取得する。第二仮想視点情報決定部142は、第一仮想視点情報に基づいて、仮想視点オブジェクトと、注視点オブジェクトと、投影注視点オブジェクトとが表示可能な第二仮想視点情報を決定する。第二仮想視点情報を表示制御部143へ出力する。具体的には、第二仮想視点情報は、ユーザが操作する仮想視点とは別の仮想視点の位置及び仮想視点からの視線方向を示す情報である。例えば、第二仮想視点情報で示される仮想視点の位置は、第一仮想視点情報により示される第一仮想視点(ユーザが操作する仮想視点)よりも後方にあり、投影注視点オブジェクトが表示可能な位置であってもよい。また、第二仮想視点情報で示される第二仮想視点からの視線方向は、投影注視点オブジェクトが表示可能な向きであってもよい。また、第二仮想視点の位置及び仮想視点からの視線方向は、仮想視点オブジェクトを表示可能な位置及び向きであってもよい。後方とは、直線上に結ばれることを指すのではなく、第二仮想視点の位置が、第一仮想視点の位置に対して、注視点側とは反対側にあることをいう。また、第一仮想視点情報により特定される第一仮想視点の視野には、第二仮想視点の位置は含まれない。一方、第二仮想視点の視野には、第一仮想視点の位置と、注視点の位置と、投影注視点の位置が含まれる。
なお、表示可能とは、表示装置において、第二仮想視点情報に基づいて生成される仮想視点画像において表示可能であることを意味する。なお、この仮想視点画像において、仮想視点オブジェクトや注視点オブジェクト、投影注視点オブジェクトが同時に表示されなくてもよい。例えば、注視点オブジェクトと投影注視点オブジェクトが表示され、仮想視点オブジェクトが表示されなくてもよい。あるいは、例えばユーザの表示指示によりいずれかのオブジェクトが非表示とされてもよい。また、これらのオブジェクトは半透明で表示されてもよい。この場合、これらのオブジェクトにより互いのオブジェクトを遮蔽されることが抑制され、ユーザがオブジェクトを認識することが容易になる。また、仮想視点画像上において被写体がいる場合には、この被写体を遮蔽されることが抑制され、ユーザが被写体を認識することが容易になる。
表示制御部143は、第二仮想視点情報決定部142から第二仮想視点情報を取得する。表示制御部143は、第二仮想視点からみた仮想視点オブジェクト、注視点オブジェクト、投影注視点オブジェクトを二次元画像上に表示する。すなわち、表示制御装置130の表示部305へ表示することでユーザの仮想視点操作に基づく仮想カメラ(第一仮想視点)の位置とその注視点、また床面に投影された注視点の影の表示を行う。この表示は、第二仮想視点情報に基づいて生成される仮想視点画像において行われる。この仮想視点画像は、撮像装置110に基づいて生成されてもよいし、予め画像生成装置120に保存されたスタジアムなどの背景モデルに基づいて生成されてもよい。この仮想視点画像は、表示制御部143により生成されてもよい。
仮想視点情報送信部144は、第一仮想視点情報決定部134より入力された第一仮想視点情報と、タイムコード決定部135より入力された再生時刻情報とを、画像生成装置120へ送信する。なお、仮想視点情報と再生時刻情報に基づいて画像生成装置120で生成された仮想視点画像はディスプレイ140へ出力、表示されるものとする。画像生成装置120で生成された仮想視点画像は、第一仮想視点からみた仮想視点画像であり、第二仮想視点から見た仮想視点画像とは異なる。
次に、表示制御装置130の動作について説明する。図5は、本実施形態に係る表示制御装置130の動作を示すフローチャートである。CPU301がROM302またはHDD304に記憶されたプログラムを読み出して実行することにより、以下の処理が行われる。
ステップS501で、まず、コントローラ操作取得部133は、視点コントローラ131から、ジョイスティックなど6軸コントローラのレバーの移動量情報を取得する。また、コントローラ操作取得部133は、時刻コントローラ132から、例えばユーザが回した回転盤の移動量情報を取得する。次に、コントローラ操作取得部133は、視点コントローラ131と時刻コントローラ132それぞれから取得した移動量情報を、仮想視点移動量情報と再生時刻移動量情報に変換し、第一仮想視点情報決定部134に出力する。
ステップS502で、第一仮想視点情報決定部134は、入力された仮想視点移動量情報に基づいて、第一仮想視点情報を決定する。そして、第一仮想視点情報決定部134は、仮想視点オブジェクト生成部136、注視点オブジェクト生成部137、投影注視点オブジェクト生成部138へ出力する。第一仮想視点は、ユーザの操作対象である仮想視点であり、ディスプレイ140に表示される仮想視点画像に対応する仮想視点である。
ステップS503で、仮想視点オブジェクト生成部136は、仮想視点オブジェクトを生成する具体的には、仮想視点オブジェクト生成部136は、第一仮想視点情報決定部134より仮想視点情報を取得する。また仮想視点オブジェクト生成部136は、オブジェクト情報保持部139より仮想視点オブジェクト情報を取得する。仮想視点オブジェクト生成部136は、仮想視点情報と仮想視点オブジェクト情報とに基づき、仮想空間上における第一仮想視点の位置と第一仮想視点からの視線方向とがユーザに認識可能とする仮想視点オブジェクトを生成する。例えば、仮想視点オブジェクトは、カメラの形状を有していてもよいし、他の形状を有していてもよい。
ステップS504で、注視点オブジェクト生成部137は、注視点オブジェクトを生成する。具体的には、注視点オブジェクト生成部137は、第一仮想視点情報決定部134より仮想視点情報を取得する。また、注視点オブジェクト生成部137は、オブジェクト情報保持部130より注視点オブジェクト情報を取得する。注視点オブジェクト生成部137は、仮想視点情報に含まれる注視点位置情報と、注視点オブジェクト情報とに基づいて、仮想空間上における第一仮想視点の注視点の位置がユーザに認識可能とする注視点オブジェクトを生成する。例えば、注視点オブジェクトは、球の形状を有していてもよいし、四角柱の形状を有していてもよい。
ステップS505で、投影注視点オブジェクト生成部138は、投影注視点オブジェクトを生成する。具体的には、投影注視点オブジェクト生成部138は、第一仮想視点情報決定部134より仮想視点情報を取得する。また、投影注視点オブジェクト生成部138は、オブジェクト情報保持部139より投影注視点オブジェクト情報を取得する。また、投影注視点オブジェクト生成部138は、面位置設定部140より投影面位置情報を取得する。投影注視点オブジェクト生成部138は、取得した情報に基づいて、仮想空間上の第一仮想視点の注視点の位置を面位置に投影した位置に対し、ユーザが認識可能とする投影注視点オブジェクトを生成する。例えば、投影注視点オブジェクトは、円の形状を有していてもよい、四角形の形状を有していてもよい。また、投影注視点オブジェクトは、注視点の投影面上の位置を示す。投影注視点オブジェクトは、注視点オブジェクトを投影面に投影することで生成してもよい。この場合、投影注視点オブジェクト生成部138は、注視点オブジェクト生成部137から注視点オブジェクトを取得してもよい。
ステップS506で、第二仮想視点情報決定部142は、第二仮想視点情報を決定する。具体的には、第二仮想視点情報決定部142は、第一仮想視点情報決定部134より第一仮想視点情報を取得する。また、第二仮想視点情報決定部142は、仮想視点オブジェクトと、注視点オブジェクトと、投影注視点オブジェクトとを取得する。第二仮想視点情報決定部142は、取得した情報に基づいて第二仮想視点情報を決定する。第二仮想視点情報は、仮想視点オブジェクトと、注視点オブジェクトと、投影注視点オブジェクトとが、仮想的に撮影することが可能な第二仮想視点の情報を示す。より具体的には、第二仮想視点の位置は第一仮想視点の後方の位置であり、第二仮想視点からの視線方向は投影注視点オブジェクトを仮想的に撮影することが可能な方向となるように、第二仮想視点情報が決定される。第二仮想視点情報決定部142は、第二仮想視点情報を表示制御部143へ出力する。
ステップS507で、表示制御部143は、第二仮想視点情報決定部142から第二仮想視点情報を取得する。表示制御部143は、第二仮想視点からみた仮想視点オブジェクト、注視点オブジェクト、投影注視点オブジェクトを含む二次元画像(仮想視点画像)を生成し、出力する。すなわち、表示制御部143は、仮想視点オブジェクト、注視点オブジェクト、投影注視点オブジェクトを含む二次元画像を表示制御装置130の表示部305に表示する。これによりユーザの仮想視点操作に基づく第一仮想視点やその注視点、投影注視点の仮想空間上の位置の表示が行われる。これにより注視点の仮想空間上の位置をユーザが容易に把握することが可能となる。
図6は、表示制御装置130の表示部305に表示される画面の例である。画面600には、仮想視点オブジェクト601と、注視点オブジェクト602と、投影注視点オブジェクト603が表示されている。
仮想視点オブジェクト601は、カメラの形状を有している。このカメラの位置は、第一仮想視点の位置を示し、カメラの向きは第一仮想視点からの視線方向を表している。注視点オブジェクト602は球形状を有している。この注視点オブジェクト602の位置は、仮想空間上で第一仮想視点の注視点の3次元位置を示している。この注視点オブジェクト602だけでは、仮想空間上のどの高さに位置するのか、ユーザが直感的に把握しづらい。そのため、投影注視点オブジェクト603を表示する。投影注視点オブジェクト603は、注視点オブジェクト602を投影面(例えば床面)に投影したオブジェクトで、楕円形状を有している。
例えば、投影注視点オブジェクト603は、注視点オブジェクト602を投影面に垂直な方向で投影面と注視点オブジェクト602とを結ぶ線上に仮想的に点光源を設置した場合の、注視点オブジェクト602の影に相当する。投影注視点オブジェクト603の形状は、投影面に合わせた形状であってもよい。例えば、投影面に凹凸があれば、投影注視点オブジェクト603の形状は、その凹凸に合わせた形状で表示されてもよい。この場合、ユーザが容易に注視点の位置を把握しやすくなる。
投影注視点オブジェクト603は、注視点オブジェクト602を投影面に投影した形状に忠実に再現しなくてもよい。投影注視点オブジェクト603の形状を強調させて、例えア、投影注視点オブジェクト603の直径が注視点オブジェクト602の直径よりも大きくなってもよい。この場合、ユーザがより容易に注視点の位置を把握しやすくなる。また、投影注視点オブジェクト603を点滅するなど、他の強調手法を用いてもよい。なお、注視点オブジェクト602を点滅してもよい。
以上、本実施形態によると、注視点の位置に基づく投影注視点オブジェクトを表示することにより床面上に影などが認識され、ユーザに直感的に注視点位置が把握しやすくなる。
なお、本実施形態では、投影注視点オブジェクト603として投影面に影の表示例を示したが、これに限らず、注視点の位置と投影注視点の位置とを結合した矢印や棒形状などの投影注視点オブジェクトを生成、表示してもよい。これにより注視点と投影注視点とが離れた場合でも位置関係をより認識しやすくなる。
<実施形態2>
図7は、実施形態2に係る表示制御装置700の機能構成を示す図である。なお、表示制御装置700は図4を参照しつつ説明した、実施形態1に係る表示制御装置130の構成に加えて以下の機能部を有している。すなわち、表示制御装置700は、表示制御装置130に対して、投影注視点オブジェクト色決定部701をさらに有している。それ以外の機能部は表示制御装置130と同じであるため、説明を省略する。
図7は、実施形態2に係る表示制御装置700の機能構成を示す図である。なお、表示制御装置700は図4を参照しつつ説明した、実施形態1に係る表示制御装置130の構成に加えて以下の機能部を有している。すなわち、表示制御装置700は、表示制御装置130に対して、投影注視点オブジェクト色決定部701をさらに有している。それ以外の機能部は表示制御装置130と同じであるため、説明を省略する。
投影注視点オブジェクト色決定部701は、面情報保持部141より面情報を取得する。また、投影注視点オブジェクト色決定部701は、投影注視点オブオブジェクト生成部138より投影注視点の位置情報と投影注視点オブジェクト情報を取得する。投影注視点オブジェクト色決定部701は、投影注視点の位置情報と面情報とに基づいて、投影注視点の位置に対応する面位置の色情報である投影面色情報を特定する。また、投影注視点オブジェクト色決定部701は、投影注視点オブジェクトに含まれる色情報と、特定された投影面色情報とを比較する。比較された投影注視点オブジェクトの色情報が所定の範囲内にある場合、投影注視点オブジェクトの色情報を変更し変更した色情報を投影注視点オブジェクト生成部138へ出力する。
図8は、本実施形態に係る表示制御装置700の動作を示すフローチャートである。なお、ステップS501からステップS504、ステップS505からステップS507までは図5の説明と同一であるため説明は省略する。
ステップS801で、投影注視点オブジェクト色決定部701は、投影注視点オブジェクトの色を決定する。具体的には、投影注視点オブジェクト色決定部701は、投影注視点の位置情報と面情報とに基づいて投影注視点の位置に対応する面位置の色情報である投影面色情報を特定する。そして、投影注視点オブジェクト色決定部701は、投影注視点オブジェクトに含まれる色情報と、特定された投影面色情報とを比較する。投影注視点オブジェクトの色情報が投影面色情報に対して所定の範囲内にある場合、投影注視点オブジェクト色決定部701は、投影注視点オブジェクトの色情報を変更し、変更した色情報を投影注視点オブジェクト生成部138へ出力する。一方、投影注視点オブジェクト色決定部701は、投影注視点オブジェクトの色情報が投影面色情報に対する所定の範囲を超える場合には、投影注視点オブジェクトの色情報を変更しない。この場合、投影注視点オブジェクト色決定部701は、変更しないことを投影注視点オブジェクト生成部138に通知する。あるいは変更しない場合であっても、投影注視点オブジェクト生成部138は、決定した色情報を投影注視点オブジェクト生成部138に出力するようにしてもよい。
具体的には、投影注視点の位置に対する床面の色情報の明度が1から10段階のうち1であるとし、投影注視点オブジェクト情報の色情報基づく明度も同様に1であるとする。
この場合、床面における投影注視点の位置の明るさと投影注視点オブジェクトの明るさが同じとなってしまい、ユーザからの投影注視点位置の認識が困難となってしまうため、投影注視点オブジェクトの明度について高くする。すなわち、投影注視点オブジェクトの明度の1から10段階のうち例えば5となる色情報に変更し変更した色情報を投影注視点オブジェクト生成部138へ出力する。また、床面の明度によっては、投影注視点オブジェクトの明度を床面の明度よりも低くしてもよい。
この場合、床面における投影注視点の位置の明るさと投影注視点オブジェクトの明るさが同じとなってしまい、ユーザからの投影注視点位置の認識が困難となってしまうため、投影注視点オブジェクトの明度について高くする。すなわち、投影注視点オブジェクトの明度の1から10段階のうち例えば5となる色情報に変更し変更した色情報を投影注視点オブジェクト生成部138へ出力する。また、床面の明度によっては、投影注視点オブジェクトの明度を床面の明度よりも低くしてもよい。
図9は本実施形態に係る表示制御装置700の表示部305に表示される画面の例である。画面600に仮想視点オブジェクト601と、注視点オブジェクト602と、床面の明度が1から10段階のうち1である低明度の床面となっている低明度床面901と、投影注視点オブジェクト902が表示されている。投影注視点が低明度床面901上に移動した場合、投影注視点オブジェクト902の明度を高くする。たとえば投影注視点オブジェクト902の色情報に基づく明度が1から10段階のうち1である場合、5となる色情報に変更した色情報で投影注視点オブジェクトを表示する。これによりユーザから投影注視点位置の認識が可能となる。
床面の位置に応じて変化する明度の場合、投影注視点オブジェクト902の明度も位置に応じで変化する例を示したが、これに限らない。例えば、投影注視点オブジェクト色決定部701は、床面の位置に応じて変化する明度の値を全領域で取得することにより、全領域の明度の値とは異なる明度で投影注視点オブジェクト902の色情報を決めてもよい。この場合、注視点の位置に応じて、投影注視点オブジェクト902の色情報を変更しなくてもよいので、表示制御装置700の処理負荷を軽減することができる。
また、床面の位置に応じて明度が変化する例を説明したが、床面が同じ位置でも時間的に明度が変化する場合には、投影注視点オブジェクト色決定部701は、投影注視点オブジェクト902の色情報を時間的に変更するようにしてもよい。
なお、本実施形態では、投影注視点オブジェクトの色情報に基づく明度の変更を例に説明したが、これに限らず色情報に基づく彩度や色相を変更するとしてもよいものとする。
<実施形態3>
図10は、本実施形態に係る表示制御装置1000の機能構成を示す図である。なお、表示制御装置1000は、図4を参照しつつ説明した、実施形態1に係る表示制御装置13に加えて、以下の機能部を有している。すなわち、また、表示制御装置1000は、第二仮想視点情報補正部1001を有している。
図10は、本実施形態に係る表示制御装置1000の機能構成を示す図である。なお、表示制御装置1000は、図4を参照しつつ説明した、実施形態1に係る表示制御装置13に加えて、以下の機能部を有している。すなわち、また、表示制御装置1000は、第二仮想視点情報補正部1001を有している。
第二仮想視点情報補正部1001は、仮想視点オブジェクト生成部136より仮想視点オブジェクトを取得し、注視点オブジェクト生成部137より注視点オブジェクトを取得し、投影注視点オブジェクト生成部138より投影注視点オブジェクトを取得する。また、第二仮想視点情報補正部1001は、第二仮想視点情報決定部142より第二仮想視点情報を取得する。第二仮想視点情報補正部1001は、仮想視点オブジェクトと、注視点オブジェクトと、投影注視点オブジェクトとに基づいて、第二仮想視点情報を補正する。
具体的には、第二仮想視点情報決定部142より決定された第二仮想視点の位置では、注視点オブジェクトと投影注視点オブジェクトの少なくとも一方が、仮想視点オブジェクトにより遮蔽されてしまう場合がある。その場合、第二仮想視点情報補正部1001は、各オブジェクトを同時に表示可能な位置となるように第二仮想視点の位置を補正する。第二仮想視点情報補正部1001は、位置が補正された第二仮想視点の第二仮想視点情報を表示制御部143へ出力する。なお、第二仮想視点情報補正部1001は、第二仮想視点の位置ではなく第二仮想視点からの視線方向を補正してもよいし、第二仮想視点の位置と第二仮想視点からの視線方向の両方を補正してもよい。
具体的には、第二仮想視点情報決定部142より決定された第二仮想視点の位置では、注視点オブジェクトと投影注視点オブジェクトの少なくとも一方が、仮想視点オブジェクトにより遮蔽されてしまう場合がある。その場合、第二仮想視点情報補正部1001は、各オブジェクトを同時に表示可能な位置となるように第二仮想視点の位置を補正する。第二仮想視点情報補正部1001は、位置が補正された第二仮想視点の第二仮想視点情報を表示制御部143へ出力する。なお、第二仮想視点情報補正部1001は、第二仮想視点の位置ではなく第二仮想視点からの視線方向を補正してもよいし、第二仮想視点の位置と第二仮想視点からの視線方向の両方を補正してもよい。
また、第二仮想視点情報補正部1001は、注視点オブジェクトが仮想視点オブジェクトにより遮蔽される場合に、注視点オブジェクトが仮想視点オブジェクトにより遮蔽されないように第二仮想視点情報を補正してもよい。また、第二仮想視点情報補正部1001は、投影注視点オブジェクトが仮想視点オブジェクトにより遮蔽される場合に、投影注視点オブジェクトが仮想視点オブジェクトにより遮蔽されないように第二仮想視点情報を補正してもよい。また、第二仮想視点情報補正部1001は、注視点オブジェクトと注視点オブジェクトとが仮想視点オブジェクトにより遮蔽されないように第二仮想視点情報を補正してもよい。
第二仮想視点情報補正部1001の第二仮想視点の位置の決定手法について、以下で説明する。図11で示すように、例えば、第二仮想視点情報決定部142は、仮想視点オブジェクト601から所定の距離1801だけ後方(Y軸の正の方向)に位置し、仮想視点オブジェクト601のZ軸位置と同一の高さに第二仮想視点1701の位置を決定する。
これにより、仮想視点オブジェクト601と注視点オブジェクト602が重ならないように第二仮想視点1701で撮像することが可能である。しかしながら、この決定方法の場合、仮想視点オブジェクト601と注視点オブジェクト602のZ軸位置が同一の高さである場合には、第二仮想視点位置1701から見て注視点オブジェクト602が仮想視点オブジェクト601に遮蔽されてしまう。そのため、第二仮想視点情報補正部1001は、第二仮想視点1701の位置を補正する。すなわち、仮想視点オブジェクト601、注視点オブジェクト602が仮想空間上に存在する場合、これらの位置によって第二仮想視点1701の位置が決定される。具体的には、まず第二仮想視点情報補正部1001は、第二仮想視点1701が、注視点オブジェクト602と仮想視点オブジェクト601を結ぶ直線1702上に存在するか否かを判定する。第二仮想視点1701が直線1702上に存在する場合は、第二仮想視点1701が撮像する場合の表示は、図12で示すとおり、注視点オブジェクト602が仮想視点オブジェクト601に隠れる表示となってしまう。これを回避するため、第二仮想視点情報補正部1001は、第二仮想視点1701をZ軸方向に所定の距離だけ上昇させる。図13の例では、Z軸方向に距離1703だけ、第二仮想視点1701を移動することによりその位置を補正する。なお、本実施形態において、距離1703の値は予め定められたものとするが、それに限定されなくてもよい。例えば、この距離1703は、カメラオブジェクト601の移動速度、移動方向に応じて動的に決定されてもよい。これにより、仮想視点オブジェクト601、注視点オブジェクト602の両方が、第二仮想視点1701の位置から視認できるようになる。すなわち第二仮想視点1701から仮に撮像する場合の画像は、図14のように、仮想視点オブジェクト601と注視点オブジェクト602が遮蔽されることなく表示される。なお、第二仮想視点1701の位置は、Z軸方向に限らずX軸方向に移動されてもよい。また、第二仮想視点1701の位置は、Z軸の正の方向に移動されてもよいし、負の方向に移動されてもよい。また、第二仮想視点1701の位置は、X軸の正の方向に移動されてもよいし、負の方向に移動されてもよい。
これにより、仮想視点オブジェクト601と注視点オブジェクト602が重ならないように第二仮想視点1701で撮像することが可能である。しかしながら、この決定方法の場合、仮想視点オブジェクト601と注視点オブジェクト602のZ軸位置が同一の高さである場合には、第二仮想視点位置1701から見て注視点オブジェクト602が仮想視点オブジェクト601に遮蔽されてしまう。そのため、第二仮想視点情報補正部1001は、第二仮想視点1701の位置を補正する。すなわち、仮想視点オブジェクト601、注視点オブジェクト602が仮想空間上に存在する場合、これらの位置によって第二仮想視点1701の位置が決定される。具体的には、まず第二仮想視点情報補正部1001は、第二仮想視点1701が、注視点オブジェクト602と仮想視点オブジェクト601を結ぶ直線1702上に存在するか否かを判定する。第二仮想視点1701が直線1702上に存在する場合は、第二仮想視点1701が撮像する場合の表示は、図12で示すとおり、注視点オブジェクト602が仮想視点オブジェクト601に隠れる表示となってしまう。これを回避するため、第二仮想視点情報補正部1001は、第二仮想視点1701をZ軸方向に所定の距離だけ上昇させる。図13の例では、Z軸方向に距離1703だけ、第二仮想視点1701を移動することによりその位置を補正する。なお、本実施形態において、距離1703の値は予め定められたものとするが、それに限定されなくてもよい。例えば、この距離1703は、カメラオブジェクト601の移動速度、移動方向に応じて動的に決定されてもよい。これにより、仮想視点オブジェクト601、注視点オブジェクト602の両方が、第二仮想視点1701の位置から視認できるようになる。すなわち第二仮想視点1701から仮に撮像する場合の画像は、図14のように、仮想視点オブジェクト601と注視点オブジェクト602が遮蔽されることなく表示される。なお、第二仮想視点1701の位置は、Z軸方向に限らずX軸方向に移動されてもよい。また、第二仮想視点1701の位置は、Z軸の正の方向に移動されてもよいし、負の方向に移動されてもよい。また、第二仮想視点1701の位置は、X軸の正の方向に移動されてもよいし、負の方向に移動されてもよい。
なお、注視点オブジェクト602が仮想視点オブジェクト601により遮蔽されないように、第二仮想視点1701を補正する例を示したが、本実施形態はこれに限定されない。例えば、なお、第二仮想視点情報補正部1001は、投影注視点オブジェクト603が仮想視点オブジェクト601により遮蔽されないように、第二仮想視点1701を補正するようにしてもよい。また、注視点オブジェクト602及び投影注視点オブジェクト603が仮想視点オブジェクト601によって遮蔽される場合にも本実施形態を適用することができる。図15は、注視点オブジェクト602及び投影注視点オブジェクト603が仮想視点オブジェクト601によって遮蔽されないように第二仮想視点1701の位置を補正する例を示す。
第二仮想視点情報補正部1001は、まず、第二仮想視点1701が注視点オブジェクト602と仮想視点オブジェクト601を結ぶ直線1903上に存在するか否かを判定する。第二仮想視点1701が直線1903上に存在する場合、第二仮想視点1701をZ軸方向に所定の距離1901だけ上昇させることにより第1の補正(第1の修正)を行う。次に、投影注視点オブジェクト603と仮想視点オブジェクト601を結ぶ直線1904上に、補正後の第二仮想視点1701が存在するか否かを判定する。第二仮想視点1701が直線1904上に存在する場合、第1の補正後の第二仮想視点1701をZ軸方向に所定の距離1902だけさらに上昇させることで第2の補正(第2の修正)を行う。これにより、注視点オブジェクト602及び投影注視点オブジェクト603が仮想視点オブジェクト601によって遮蔽される表示となることが避けられる。なお、第1の補正と第2の補正は同時に行われてもよい。
図16は、本実施形態に係る表示制御装置1000の動作を示すフローチャートである。なお、ステップS501からステップS506までは図5の説明と同一のため説明は省略する。CPU301がROM302またはHDD304に記憶されたプログラムを読み出して実行することにより、以下の処理が行われる。
ステップS1101で第二仮想視点情報補正部1001は、入力された第二仮想視点情報で示される第二仮想視点の位置から見て、注視点オブジェクトと仮想視点オブジェクトが遮蔽されるか否か(重なるか否か)を判定する。仮想視点オブジェクトに注視点オブジェクトが遮蔽されてしまう場合(S1101のYes)、ステップS1102へ進み、それ以外の場合はステップS1103へ進む。なお、この判定について、上述した通りであるため説明を省略する。ステップS1102で、仮想視点オブジェクト601と注視点オブジェクト602が同時に表示可能な位置となる第二仮想視点へ移動するように位置を補正する。補正の具体的な手法も上述した通りである。
ステップS1103で、第二仮想視点情報補正部1001は、入力された第二仮想視点情報で示される第二仮想視点の位置から見て、注視点オブジェクトと投影注視点オブジェクトが遮蔽されるか否か(重なるか否か)を判定する。仮想視点オブジェクトに投影注視点オブジェクトが遮蔽されてしまう場合(S1103のYes)、ステップS1104へ進み、それ以外の場合はステップS507へ進む。なおこの判定について、上述した通りであるため説明を省略する。ステップS1104で、仮想視点オブジェクト601、注視点オブジェクト602及び投影注視点オブジェクト603が同時に表示可能な位置となる第二仮想視点へ移動するように第二仮想視点情報を補正する。なお、の具体的な手法も上述した通りである。補正された第二仮想視点に基づく第二仮想視点情報を表示制御部143へ出力する。
ステップS507で、入力された第二仮想視点位置からみた仮想視点オブジェクト、注視点オブジェクト、投影注視点オブジェクトを二次元画像上に表示する。すなわち、表示制御装置130の表示部へ表示することでユーザの仮想視点操作に基づく仮想カメラ位置の表示をする。
以上、本実施形態によると、第二仮想視点を仮想視点オブジェクトと同じ高さで後方に置くことで、仮想カメラの移動の操作を操作者に直感的にわかりやすく表示することができる。さらに、仮想視点オブジェクトに注視点位置が重なる場合に、第二仮想視点位置を補正することで、常に注視点位置が把握しやすくなる。
なお、本実施形態では、仮想視点オブジェクトと注視点オブジェクトと投影注視点オブジェクトが表示される際、各オブジェクト形状の全部が表示されるに限らず、各オブジェクト形状の一部分のみが表示されているとしてもよい。
また、本実施形態において図15では、仮想視点オブジェクトと、注視点オブジェクトと投影注視点オブジェクトの両方とが仮想視点オブジェクトに遮蔽されている場合に第二仮想視点を移動する例を説明したが、これに限定されなくてもよい。例えば、注視点オブジェクトと投影注視点オブジェクトの片方のみが仮想視点オブジェクトにより遮蔽されている場合も本実施形態を適用可能である。例えば、図16において、投影注視点オブジェクトが重なる場合に第二仮想視点の補正(第2の補正、S1104)を行うフローとしたが、S1103及びS11104の処理を省略してもよい。同様に、S1101及びS1102の処理(第1の補正)を省略してもよい。このように第1の補正あるいは第2の補正を行わなくてもよい。
また、第二仮想視点への移動については上記に限定されない。例えば、図15において、距離1901だけ上昇させた後に投影注視点オブジェクトとの重なりが検知された場合、第2の補正として上昇させる前の位置から下方に距離1901だけ下降させてもよい。
また、注視点オブジェクトを中心とする長さが注視点オブジェクトと仮想視点オブジェクトの距離と直線1903の長さを加えた半径とする曲線や球面上に移動してもよい。同様に仮想視点601の大きさを考慮して、水平方向に移動してもよい。
また、注視点オブジェクトを中心とする長さが注視点オブジェクトと仮想視点オブジェクトの距離と直線1903の長さを加えた半径とする曲線や球面上に移動してもよい。同様に仮想視点601の大きさを考慮して、水平方向に移動してもよい。
また、本実施形態の表示制御装置1000が第二仮想視点情報補正部1001を有する構成を説明したが、これに限らない。例えば、第二仮想視点142が、仮想視点オブジェクトと、注視点オブジェクトと投影注視点オブジェクトの少なくとも一方と、重ならないように、第二仮想視点の位置を決定してもよい。この場合には第二仮想視点情報補正部1001が本実施形態の表示制御装置1000の機能部としてなくてもよい。
<実施形態4>
本実施形態は、第一仮想視点オブジェクトの表示様態を変更する形態である。図17は、本実施形態に係る表示制御装置1400の機能構成を示す図である。なお、表示制御装置1400は図4を参照しつつ説明した、実施形態1に係る表示制御装置130の構成に加えて以下の機能部を有する。
本実施形態は、第一仮想視点オブジェクトの表示様態を変更する形態である。図17は、本実施形態に係る表示制御装置1400の機能構成を示す図である。なお、表示制御装置1400は図4を参照しつつ説明した、実施形態1に係る表示制御装置130の構成に加えて以下の機能部を有する。
表示様態制御部1401は、第二仮想視点情報決定部142より第二仮想視点情報を取得する。また、表示様態制御部1401は、第二仮想視点情報決定部142を介して、仮想視点オブジェクト、注視点オ注視点オブジェクト、投影注視点オブジェクトを取得する。また表示様態制御部1401は、第二仮想視点情報に基づく仮想視点位置から見て仮想視点オブジェクトが、注視点オブジェクトと、投影注視点オブジェクトのいずれかを遮蔽するか否かを判定する。表示様態制御部1401は、仮想視点オブジェクトに少なくとも一方のオブジェクトが遮蔽される場合、仮想視点オブジェクトを半透過させるように表示様態を変更することを決定する。そして、表示様態制御部1401は、仮想視点オブジェクトを半透過させ第二仮想視点位置から仮に撮影した画像を表示制御部143へ出力する。仮想視点オブジェクトが半透過されることでユーザから注視点オブジェクトと投影注視点オブジェクトや投影注視点オブジェクトが認識可能となる。
図18は、実施形態4に係る表示制御装置1400の動作を示すフローチャートである。なお、ステップS501からステップS506までは図5の説明と同一のため説明は省略する。CPU301がROM302またはHDD304に記憶されたプログラムを読み出して実行することにより、以下の処理が行われる。
ステップS1501では、表示様態制御部1401は、入力された第二仮想視点情報で示される第二仮想視点の位置から見て、注視点オブジェクトと投影注視点オブジェクトと仮想視点オブジェクトが遮蔽されるか否か判定する。仮想視点オブジェクトに注視点オブジェクトと投影注視点オブジェクトまたは投影注視点オブジェクトが遮蔽されてしまう場合(S1501のYes)、ステップS1502へ進む。また、表示様態制御部1401は、仮想視点オブジェクトに、注視点オブジェクトと投影注視点オブジェクトとが遮蔽されず表示可能である場合(S1501のNo)、ステップS507へ進む。
ステップS1502では、表示様態制御部1401は、仮想視点オブジェクトを半透過させるように表示様態を変更する。また、表示様態制御部1401は、第二仮想視点に基づく第二仮想視点情報を表示制御部143へ出力する。
ステップS507で、入力された第二仮想視点位置からみた半透過の仮想視点オブジェクト、注視点オブジェクト、投影注視点オブジェクトを含む画像が表示される。すなわち、表示制御装置130の表示部へ表示する画像として、仮想視点オブジェクトを半透過表示とすることで、ユーザに、仮想視点オブジェクトと、注視点オブジェクト、投影注視点オブジェクトを認識させることができる。
図19は、表示制御装置1400の画面表示例である。第二仮想視点情報に基づいた位置から見た画像を、表示制御装置1000の表示視点画面600に表示している。半透過された仮想視点オブジェクト1601により注視点オブジェクト602と投影注視点オブジェクト603とがユーザから認識可能となっている。
以上、実施形態4によると、仮想視点オブジェクトに注視点位置が重なる場合に、半透過された仮想視点オブジェクトとすることで、注視点位置が把握しやすくなる。なお、本実施形態では、仮想視点オブジェクトに注視点オブジェクトと投影注視点オブジェクトとが遮蔽される際を例に説明したが、これに限らず、各オブジェクト形状のいずれかが遮蔽される場合に、遮蔽するオブジェクトを半透過するとしてもよいものとする。また、本実施形態では、表示形態として半透過で説明したが、例えば、仮想視点オブジェクトの大きさを、注視点オブジェクトや投影注視点オブジェクトを視認できるように、縮小してもよい。
<その他の実施形態>
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<その他>
上述した実施形態の開示は、以下の構成、方法、及びプログラムを含む。
上述した実施形態の開示は、以下の構成、方法、及びプログラムを含む。
(構成1)
複数の撮像装置の撮像により得られた複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想視点の注視点の位置を示す情報を取得する取得手段と、
前記注視点を示す注視点オブジェクトと、前記注視点の投影面上の位置を示す投影注視点オブジェクトと、を含む画像を表示させる表示制御手段と、
を有する表示制御装置。
複数の撮像装置の撮像により得られた複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想視点の注視点の位置を示す情報を取得する取得手段と、
前記注視点を示す注視点オブジェクトと、前記注視点の投影面上の位置を示す投影注視点オブジェクトと、を含む画像を表示させる表示制御手段と、
を有する表示制御装置。
(構成2)
前記投影注視点オブジェクトは、前記注視点の前記投影面への投影に基づいて生成される構成1に記載の表示制御装置。
前記投影注視点オブジェクトは、前記注視点の前記投影面への投影に基づいて生成される構成1に記載の表示制御装置。
(構成3)
前記画像は、前記仮想視点とは異なる他の仮想視点に対応する仮想視点画像である構成1又は2に記載の表示制御装置。
前記画像は、前記仮想視点とは異なる他の仮想視点に対応する仮想視点画像である構成1又は2に記載の表示制御装置。
(構成4)
前記画像は、前記仮想視点を示す仮想視点オブジェクトを含むこと構成1乃至3のいずれか1項に記載の表示制御装置。
前記画像は、前記仮想視点を示す仮想視点オブジェクトを含むこと構成1乃至3のいずれか1項に記載の表示制御装置。
(構成5)
前記注視点オブジェクトと、前記投影注視点オブジェクトと、前記仮想視点オブジェクトを含む画像に対応する他の仮想視点であって、前記仮想視点とは異なる他の仮想視点を決定する決定手段を有する構成4に記載の表示制御装置。
前記注視点オブジェクトと、前記投影注視点オブジェクトと、前記仮想視点オブジェクトを含む画像に対応する他の仮想視点であって、前記仮想視点とは異なる他の仮想視点を決定する決定手段を有する構成4に記載の表示制御装置。
(構成6)
前記画像において、前記仮想視点オブジェクトは、前記注視点オブジェクトと重ならない位置にある構成4又は5に記載の表示制御装置。
前記画像において、前記仮想視点オブジェクトは、前記注視点オブジェクトと重ならない位置にある構成4又は5に記載の表示制御装置。
(構成7)
前記画像において、前記仮想視点オブジェクトは、前記投影注視点オブジェクトと重ならない位置にある構成4乃至6のいずれか1項に記載の表示制御装置。
前記画像において、前記仮想視点オブジェクトは、前記投影注視点オブジェクトと重ならない位置にある構成4乃至6のいずれか1項に記載の表示制御装置。
(構成8)
前記仮想視点オブジェクトは、前記注視点オブジェクト及び前記投影注視点オブジェクトと重ならない位置にある構成4乃至7のいずれか1項に記載の表示制御装置。
前記仮想視点オブジェクトは、前記注視点オブジェクト及び前記投影注視点オブジェクトと重ならない位置にある構成4乃至7のいずれか1項に記載の表示制御装置。
(構成9)
前記仮想オブジェクトは、半透過で表示される構成4乃至8のいずれか1項に記載の表示制御装置。
前記仮想オブジェクトは、半透過で表示される構成4乃至8のいずれか1項に記載の表示制御装置。
(構成10)
前記投影注視点オブジェクトは、前記注視点オブジェクトと離れている構成1乃至9のいずれか1項に記載の表示制御装置。
前記投影注視点オブジェクトは、前記注視点オブジェクトと離れている構成1乃至9のいずれか1項に記載の表示制御装置。
(方法)
複数の撮像装置の撮像により得られた複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想視点の注視点の位置を示す情報を取得する取得工程と、
前記注視点を示す注視点オブジェクトと、前記注視点の投影面上の位置を示す投影注視点オブジェクトと、を含む画像を表示させる表示制御工程と、
を有する表示制御方法。
複数の撮像装置の撮像により得られた複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想視点の注視点の位置を示す情報を取得する取得工程と、
前記注視点を示す注視点オブジェクトと、前記注視点の投影面上の位置を示す投影注視点オブジェクトと、を含む画像を表示させる表示制御工程と、
を有する表示制御方法。
(プログラム)
コンピュータに、上記方法に記載の表示制御方法を実行させるためのプログラム。
コンピュータに、上記方法に記載の表示制御方法を実行させるためのプログラム。
110 撮像装置
130、700、1000、1400 表示制御装置
130、700、1000、1400 表示制御装置
Claims (12)
- 複数の撮像装置の撮像により得られた複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想視点の注視点の位置を示す情報を取得する取得手段と、
前記注視点を示す注視点オブジェクトと、前記注視点の投影面上の位置を示す投影注視点オブジェクトと、を含む画像を表示させる表示制御手段と、
を有する表示制御装置。 - 前記投影注視点オブジェクトは、前記注視点の前記投影面への投影に基づいて生成される請求項1に記載の表示制御装置。
- 前記画像は、前記仮想視点とは異なる他の仮想視点に対応する仮想視点画像である請求項1に記載の表示制御装置。
- 前記画像は、前記仮想視点を示す仮想視点オブジェクトを含むこと請求項1乃至3のいずれか1項に記載の表示制御装置。
- 前記注視点オブジェクトと、前記投影注視点オブジェクトと、前記仮想視点オブジェクトを含む画像に対応する他の仮想視点であって、前記仮想視点とは異なる他の仮想視点を決定する決定手段を有する請求項4に記載の表示制御装置。
- 前記画像において、前記仮想視点オブジェクトは、前記注視点オブジェクトと重ならない位置にある請求項4に記載の表示制御装置。
- 前記画像において、前記仮想視点オブジェクトは、前記投影注視点オブジェクトと重ならない位置にある請求項4に記載の表示制御装置。
- 前記仮想視点オブジェクトは、前記注視点オブジェクト及び前記投影注視点オブジェクトと重ならない位置にある請求項4に記載の表示制御装置。
- 前記仮想視点オブジェクトは、半透過で表示される請求項4に記載の表示制御装置。
- 前記投影注視点オブジェクトは、前記注視点オブジェクトと離れている請求項1に記載の表示制御装置。
- 複数の撮像装置の撮像により得られた複数の撮像画像に基づいて生成される仮想視点画像に対応する仮想視点の注視点の位置を示す情報を取得する取得工程と、
前記注視点を示す注視点オブジェクトと、前記注視点の投影面上の位置を示す投影注視点オブジェクトと、を含む画像を表示させる表示制御工程と、
を有する表示制御方法。 - コンピュータに、請求項11に記載の表示制御方法を実行させるためのプログラム。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023056849 | 2023-03-31 | ||
| JP2023056849 | 2023-03-31 | ||
| JP2023070609A JP7608510B2 (ja) | 2023-03-31 | 2023-04-24 | 表示制御装置、表示制御方法、及びプログラム |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023070609A Division JP7608510B2 (ja) | 2023-03-31 | 2023-04-24 | 表示制御装置、表示制御方法、及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2025028130A true JP2025028130A (ja) | 2025-02-28 |
Family
ID=90368586
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024216195A Pending JP2025028130A (ja) | 2023-03-31 | 2024-12-11 | 表示制御装置、表示制御方法、及びプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20240333899A1 (ja) |
| EP (1) | EP4443273A1 (ja) |
| JP (1) | JP2025028130A (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022126206A (ja) * | 2021-02-18 | 2022-08-30 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (145)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4258824B2 (ja) * | 1998-05-20 | 2009-04-30 | 株式会社セガ | 画像処理装置、画像処理方法及び記録媒体 |
| EP1081650B1 (en) * | 1999-09-02 | 2007-02-07 | Canon Kabushiki Kaisha | Progressive Display of Target Objects |
| JP2001149643A (ja) * | 1999-09-16 | 2001-06-05 | Sony Computer Entertainment Inc | 3次元ゲームにおけるオブジェクト表示方法、情報記録媒体およびエンタテインメント装置 |
| US7522186B2 (en) * | 2000-03-07 | 2009-04-21 | L-3 Communications Corporation | Method and apparatus for providing immersive surveillance |
| US6573912B1 (en) * | 2000-11-07 | 2003-06-03 | Zaxel Systems, Inc. | Internet system for virtual telepresence |
| JP3450833B2 (ja) * | 2001-02-23 | 2003-09-29 | キヤノン株式会社 | 画像処理装置及びその方法並びにプログラムコード、記憶媒体 |
| US6987512B2 (en) * | 2001-03-29 | 2006-01-17 | Microsoft Corporation | 3D navigation techniques |
| JP4297804B2 (ja) * | 2004-02-19 | 2009-07-15 | 任天堂株式会社 | ゲーム装置及びゲームプログラム |
| JP4247218B2 (ja) * | 2005-08-26 | 2009-04-02 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法及びプログラム |
| JP2007215097A (ja) * | 2006-02-13 | 2007-08-23 | Matsushita Electric Ind Co Ltd | 表示データ生成装置 |
| EP1862969A1 (en) * | 2006-06-02 | 2007-12-05 | Eidgenössische Technische Hochschule Zürich | Method and system for generating a representation of a dynamically changing 3D scene |
| US20080158345A1 (en) * | 2006-09-11 | 2008-07-03 | 3Ality Digital Systems, Llc | 3d augmentation of traditional photography |
| US8106924B2 (en) * | 2008-07-31 | 2012-01-31 | Stmicroelectronics S.R.L. | Method and system for video rendering, computer program product therefor |
| WO2010119496A1 (ja) * | 2009-04-13 | 2010-10-21 | 富士通株式会社 | 画像処理装置、画像処理プログラム、画像処理方法 |
| US20110007072A1 (en) * | 2009-07-09 | 2011-01-13 | University Of Central Florida Research Foundation, Inc. | Systems and methods for three-dimensionally modeling moving objects |
| CN102598652B (zh) * | 2009-10-30 | 2015-08-12 | 佳能株式会社 | 信息处理设备和方法 |
| JP5148652B2 (ja) * | 2010-03-31 | 2013-02-20 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及び画像生成システム |
| GB2489674A (en) * | 2011-03-29 | 2012-10-10 | Sony Corp | 3D image generation |
| EP2600316A1 (en) * | 2011-11-29 | 2013-06-05 | Inria Institut National de Recherche en Informatique et en Automatique | Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation |
| US9462301B2 (en) * | 2013-03-15 | 2016-10-04 | Google Inc. | Generating videos with multiple viewpoints |
| JP2014215828A (ja) | 2013-04-25 | 2014-11-17 | シャープ株式会社 | 画像データ再生装置、および視点情報生成装置 |
| JP6163899B2 (ja) * | 2013-06-11 | 2017-07-19 | ソニー株式会社 | 情報処理装置、撮像装置、情報処理方法、及びプログラム |
| DK3010229T3 (en) * | 2013-06-14 | 2019-03-18 | Hitachi Ltd | Video surveillance system, video surveillance device |
| US20160205341A1 (en) * | 2013-08-20 | 2016-07-14 | Smarter Tv Ltd. | System and method for real-time processing of ultra-high resolution digital video |
| US10038838B2 (en) * | 2015-05-29 | 2018-07-31 | Hover Inc. | Directed image capture |
| US10003786B2 (en) * | 2015-09-25 | 2018-06-19 | Intel Corporation | Method and system of 3D image capture with dynamic cameras |
| JP6166324B2 (ja) * | 2015-10-14 | 2017-07-19 | 株式会社スクウェア・エニックス | ゲームプログラム及びゲームシステム |
| WO2017134706A1 (ja) * | 2016-02-03 | 2017-08-10 | パナソニックIpマネジメント株式会社 | 映像表示方法及び映像表示装置 |
| US11163358B2 (en) * | 2016-03-17 | 2021-11-02 | Sony Interactive Entertainment Inc. | Spectating virtual (VR) environments associated with VR user interactivity |
| JP6672075B2 (ja) * | 2016-05-25 | 2020-03-25 | キヤノン株式会社 | 制御装置、制御方法、及び、プログラム |
| US10559095B2 (en) * | 2016-08-31 | 2020-02-11 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and medium |
| JP6918455B2 (ja) * | 2016-09-01 | 2021-08-11 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
| JP6894687B2 (ja) * | 2016-10-11 | 2021-06-30 | キヤノン株式会社 | 画像処理システム、画像処理装置、制御方法、及び、プログラム |
| JP7059937B2 (ja) * | 2016-11-14 | 2022-04-26 | ソニーグループ株式会社 | 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム |
| WO2018100928A1 (ja) * | 2016-11-30 | 2018-06-07 | キヤノン株式会社 | 画像処理装置および方法 |
| US10416757B2 (en) * | 2016-12-08 | 2019-09-17 | Raymond Maurice Smit | Telepresence system |
| US10762653B2 (en) * | 2016-12-27 | 2020-09-01 | Canon Kabushiki Kaisha | Generation apparatus of virtual viewpoint image, generation method, and storage medium |
| JP6849430B2 (ja) * | 2016-12-27 | 2021-03-24 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| EP3565259A4 (en) * | 2016-12-28 | 2019-11-06 | Panasonic Intellectual Property Corporation of America | DISTRIBUTION METHOD FOR THREE-DIMENSIONAL MODEL, RECEIVING METHOD FOR THREE-DIMENSIONAL MODEL, DISTRIBUTION DEVICE FOR THREE-DIMENSIONAL MODEL AND RECEIVING DEVICE FOR THREE-DIMENSIONAL MODEL |
| US10970915B2 (en) * | 2017-01-06 | 2021-04-06 | Canon Kabushiki Kaisha | Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium |
| JP6878014B2 (ja) * | 2017-01-13 | 2021-05-26 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム、画像処理システム |
| JP6812271B2 (ja) * | 2017-02-27 | 2021-01-13 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
| JP7086522B2 (ja) * | 2017-02-28 | 2022-06-20 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
| JP7013139B2 (ja) * | 2017-04-04 | 2022-01-31 | キヤノン株式会社 | 画像処理装置、画像生成方法及びプログラム |
| JP2018182428A (ja) * | 2017-04-06 | 2018-11-15 | 株式会社フューチャリズムワークス | 映像配信装置、映像配信システム及び映像配信方法 |
| JP6670794B2 (ja) * | 2017-05-15 | 2020-03-25 | 任天堂株式会社 | 情報処理プログラム、情報処理システム、情報処理装置、および、情報処理方法 |
| JP6298561B1 (ja) * | 2017-05-26 | 2018-03-20 | 株式会社コロプラ | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
| US11538213B2 (en) * | 2017-05-31 | 2022-12-27 | Live Cgi, Inc. | Creating and distributing interactive addressable virtual content |
| US10645360B2 (en) * | 2017-05-31 | 2020-05-05 | Verizon Patent And Licensing Inc. | Methods and systems for transmitting data in a virtual reality system |
| JP6957215B2 (ja) * | 2017-06-06 | 2021-11-02 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| WO2018226508A1 (en) * | 2017-06-09 | 2018-12-13 | Pcms Holdings, Inc. | Spatially faithful telepresence supporting varying geometries and moving users |
| JP6924079B2 (ja) * | 2017-06-12 | 2021-08-25 | キヤノン株式会社 | 情報処理装置及び方法及びプログラム |
| JP7033865B2 (ja) * | 2017-08-10 | 2022-03-11 | キヤノン株式会社 | 画像生成装置、画像生成方法、及びプログラム |
| JP7030452B2 (ja) * | 2017-08-30 | 2022-03-07 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、情報処理システム及びプログラム |
| JP6419916B1 (ja) * | 2017-09-04 | 2018-11-07 | 株式会社コロプラ | ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置 |
| JP7140487B2 (ja) * | 2017-10-25 | 2022-09-21 | キヤノン株式会社 | 情報処理装置、表示制御方法、及び、プログラム |
| JP6980496B2 (ja) * | 2017-11-21 | 2021-12-15 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP6415675B1 (ja) * | 2017-12-04 | 2018-10-31 | キヤノン株式会社 | 生成装置、生成方法及びプログラム |
| US10951879B2 (en) * | 2017-12-04 | 2021-03-16 | Canon Kabushiki Kaisha | Method, system and apparatus for capture of image data for free viewpoint video |
| EP3608873B1 (en) * | 2017-12-14 | 2021-06-09 | Canon Kabushiki Kaisha | Generation device, generation method and program for three-dimensional model |
| JP6513169B1 (ja) * | 2017-12-14 | 2019-05-15 | キヤノン株式会社 | 仮想視点画像を生成するシステム、方法及びプログラム |
| JP2019114147A (ja) * | 2017-12-25 | 2019-07-11 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
| JP6920987B2 (ja) * | 2017-12-28 | 2021-08-18 | キヤノン株式会社 | 情報処理装置、映像配信装置およびそれらの制御方法、並びにプログラム |
| JP2019152980A (ja) * | 2018-03-01 | 2019-09-12 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| JP7102173B2 (ja) * | 2018-03-09 | 2022-07-19 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| US10902676B2 (en) * | 2018-03-13 | 2021-01-26 | Canon Kabushiki Kaisha | System and method of controlling a virtual camera |
| JP2019161462A (ja) * | 2018-03-13 | 2019-09-19 | キヤノン株式会社 | 制御装置、画像処理システム、制御方法、及びプログラム |
| JP7132730B2 (ja) * | 2018-03-14 | 2022-09-07 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
| CN111937382A (zh) * | 2018-04-10 | 2020-11-13 | 索尼公司 | 图像处理装置、图像处理方法、程序和图像传输系统 |
| WO2019208702A1 (ja) * | 2018-04-27 | 2019-10-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点画像生成方法、自由視点画像表示方法、自由視点画像生成装置及び表示装置 |
| JP2019197340A (ja) * | 2018-05-09 | 2019-11-14 | キヤノン株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
| JP7091133B2 (ja) * | 2018-05-09 | 2022-06-27 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP7146472B2 (ja) * | 2018-06-18 | 2022-10-04 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| WO2020004162A1 (ja) * | 2018-06-27 | 2020-01-02 | キヤノン株式会社 | 撮像システム、配置決定装置、配置決定方法およびプログラム |
| JP7277085B2 (ja) * | 2018-07-04 | 2023-05-18 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP7193938B2 (ja) * | 2018-07-04 | 2022-12-21 | キヤノン株式会社 | 情報処理装置及びその制御方法、プログラム |
| GB2575843A (en) * | 2018-07-25 | 2020-01-29 | Sony Interactive Entertainment Inc | Method and system for generating an image |
| US10271040B1 (en) * | 2018-08-09 | 2019-04-23 | Alive 3D | Dynamic angle viewing system |
| WO2020045186A1 (ja) * | 2018-08-31 | 2020-03-05 | キヤノン株式会社 | 情報処理装置、方法、及びプログラム |
| JP7207913B2 (ja) * | 2018-09-07 | 2023-01-18 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| WO2020079996A1 (ja) * | 2018-10-16 | 2020-04-23 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
| JP7123736B2 (ja) * | 2018-10-23 | 2022-08-23 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
| JP7249755B2 (ja) * | 2018-10-26 | 2023-03-31 | キヤノン株式会社 | 画像処理システムおよびその制御方法、プログラム |
| US10786033B2 (en) * | 2018-10-29 | 2020-09-29 | Robotarmy Corp. | Racing helmet with visual and audible information exchange |
| JP7330683B2 (ja) * | 2018-11-06 | 2023-08-22 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP7237538B2 (ja) * | 2018-11-14 | 2023-03-13 | キヤノン株式会社 | 情報処理装置、それを含むシステム、情報処理方法、およびプログラム |
| US10839594B2 (en) * | 2018-12-11 | 2020-11-17 | Canon Kabushiki Kaisha | Method, system and apparatus for capture of image data for free viewpoint video |
| US10818077B2 (en) * | 2018-12-14 | 2020-10-27 | Canon Kabushiki Kaisha | Method, system and apparatus for controlling a virtual camera |
| JP7267753B2 (ja) * | 2019-01-21 | 2023-05-02 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
| WO2020162542A1 (ja) * | 2019-02-06 | 2020-08-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、および、三次元データ復号装置 |
| US11057609B2 (en) * | 2019-02-27 | 2021-07-06 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and computer readable storage medium for determining a moving path of virtual viewpoint |
| JP2020140285A (ja) * | 2019-02-27 | 2020-09-03 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、及び、プログラム |
| JP7335335B2 (ja) * | 2019-06-28 | 2023-08-29 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP7366611B2 (ja) * | 2019-07-05 | 2023-10-23 | キヤノン株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
| JP7455524B2 (ja) * | 2019-07-11 | 2024-03-26 | キヤノン株式会社 | 情報処理装置、設定方法、及びプログラム |
| GB2586838B (en) * | 2019-09-05 | 2022-07-27 | Sony Interactive Entertainment Inc | Free-viewpoint method and system |
| JP7395296B2 (ja) * | 2019-09-17 | 2023-12-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| US11420122B2 (en) * | 2019-12-23 | 2022-08-23 | Activision Publishing, Inc. | Systems and methods for controlling camera perspectives, movements, and displays of video game gameplay |
| JP7488285B2 (ja) * | 2019-12-26 | 2024-05-21 | 富士フイルム株式会社 | 情報処理装置、情報処理装置の作動方法、及びプログラム |
| WO2021149336A1 (ja) * | 2020-01-22 | 2021-07-29 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP7467612B2 (ja) * | 2020-04-27 | 2024-04-15 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| JPWO2021220892A1 (ja) * | 2020-04-27 | 2021-11-04 | ||
| WO2021220893A1 (ja) * | 2020-04-28 | 2021-11-04 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| JP7529783B2 (ja) * | 2020-07-31 | 2024-08-06 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
| JP7612384B2 (ja) * | 2020-11-02 | 2025-01-14 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
| JP7581019B2 (ja) * | 2020-11-11 | 2024-11-12 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
| JP2022110751A (ja) * | 2021-01-19 | 2022-07-29 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP2022126206A (ja) * | 2021-02-18 | 2022-08-30 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
| JP7642394B2 (ja) * | 2021-02-18 | 2025-03-10 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| JP7690301B2 (ja) * | 2021-02-26 | 2025-06-10 | キヤノン株式会社 | 情報処理装置、それを含むシステム、情報処理方法およびプログラム |
| JP7754917B2 (ja) * | 2021-02-26 | 2025-10-15 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| US12039657B2 (en) * | 2021-03-17 | 2024-07-16 | Adobe Inc. | View synthesis of a dynamic scene |
| CN117015805A (zh) * | 2021-03-31 | 2023-11-07 | 富士胶片株式会社 | 图像处理装置、图像处理方法及程序 |
| JP7676209B2 (ja) * | 2021-04-27 | 2025-05-14 | キヤノン株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
| JP7716232B2 (ja) * | 2021-05-27 | 2025-07-31 | キヤノン株式会社 | 画像処理装置およびその制御方法、プログラム |
| JP2023013538A (ja) * | 2021-07-16 | 2023-01-26 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| JP7406528B2 (ja) * | 2021-07-28 | 2023-12-27 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| US20240378781A1 (en) * | 2021-09-07 | 2024-11-14 | Sony Group Corporation | Information processing device and method, and program |
| JPWO2023047637A1 (ja) * | 2021-09-22 | 2023-03-30 | ||
| JP2023054710A (ja) * | 2021-10-04 | 2023-04-14 | キヤノン株式会社 | 情報処理装置および方法、プログラム |
| US12211140B2 (en) * | 2021-11-19 | 2025-01-28 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
| JP7795931B2 (ja) * | 2022-01-31 | 2026-01-08 | キヤノン株式会社 | 情報処理装置、情報処理方法、データ構造及びプログラム |
| JP2023122130A (ja) * | 2022-02-22 | 2023-09-01 | キヤノン株式会社 | 映像処理装置およびその制御方法、プログラム |
| JP2023128268A (ja) * | 2022-03-03 | 2023-09-14 | キヤノン株式会社 | 情報処理装置、情報処理方法、画像生成装置、画像生成方法及びプログラム |
| EP4254962A1 (en) * | 2022-03-31 | 2023-10-04 | Canon Kabushiki Kaisha | Image processing apparatus, control method and program |
| JP2023153534A (ja) * | 2022-04-05 | 2023-10-18 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
| JP2023169697A (ja) * | 2022-05-17 | 2023-11-30 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
| US12380660B2 (en) * | 2022-08-22 | 2025-08-05 | Samsung Electronics Co., Ltd. | Method and device for direct passthrough in video see-through (VST) augmented reality (AR) |
| US12272011B2 (en) * | 2022-10-28 | 2025-04-08 | Verizon Patent And Licensing Inc. | Methods and systems for producing volumetric content using combined fixed and dynamic camera systems |
| US20240214543A1 (en) * | 2022-12-22 | 2024-06-27 | Rovi Guides, Inc. | Multi-camera multiview imaging with fast and accurate synchronization |
| JP7719811B2 (ja) * | 2023-01-11 | 2025-08-06 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| JP2024135024A (ja) * | 2023-03-22 | 2024-10-04 | キヤノン株式会社 | 画像処理装置、および画像処理方法 |
| JP7767355B2 (ja) * | 2023-03-31 | 2025-11-11 | キヤノン株式会社 | 情報処理装置制御方法、およびプログラム |
| JP2024159105A (ja) * | 2023-04-28 | 2024-11-08 | キヤノン株式会社 | 画像処理システム、画像処理装置 |
| US20240378820A1 (en) * | 2023-05-09 | 2024-11-14 | Samsung Electronics Co., Ltd. | Efficient depth-based viewpoint matching and head pose change compensation for video see-through (vst) extended reality (xr) |
| JP7661405B2 (ja) * | 2023-06-23 | 2025-04-14 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
| EP4498670A1 (en) * | 2023-07-25 | 2025-01-29 | Canon Kabushiki Kaisha | Image processing apparatus, method for image processing, and program |
| JP7793578B2 (ja) * | 2023-09-27 | 2026-01-05 | キヤノン株式会社 | 表示装置、制御方法、およびプログラム |
| US20250150566A1 (en) * | 2023-11-06 | 2025-05-08 | Samsung Electronics Co., Ltd. | Final view generation using offset and/or angled see-through cameras in video see-through (vst) extended reality (xr) |
| JP2025109087A (ja) * | 2024-01-11 | 2025-07-24 | キヤノン株式会社 | 情報処理システム、情報処理方法、及びプログラム |
| JP2025125421A (ja) * | 2024-02-15 | 2025-08-27 | キヤノン株式会社 | 制御装置、制御方法及びプログラム |
| JP2025126679A (ja) * | 2024-02-19 | 2025-08-29 | キヤノン株式会社 | 画像生成装置、画像生成方法、及び、プログラム |
| US20250272894A1 (en) * | 2024-02-28 | 2025-08-28 | Samsung Electronics Co., Ltd. | Registration and parallax error correction for video see-through (vst) extended reality (xr) |
| JP2025131282A (ja) * | 2024-02-28 | 2025-09-09 | キヤノン株式会社 | 画像処理システム、情報処理方法、及びプログラム |
| JP2025135192A (ja) * | 2024-03-05 | 2025-09-18 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
-
2024
- 2024-03-20 EP EP24164921.9A patent/EP4443273A1/en active Pending
- 2024-03-27 US US18/618,728 patent/US20240333899A1/en active Pending
- 2024-12-11 JP JP2024216195A patent/JP2025028130A/ja active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| EP4443273A1 (en) | 2024-10-09 |
| US20240333899A1 (en) | 2024-10-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11430192B2 (en) | Placement and manipulation of objects in augmented reality environment | |
| JP7051457B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| JP6476657B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
| CN112639685A (zh) | 模拟现实(sr)中的显示设备共享和交互 | |
| CN113426117B (zh) | 虚拟相机拍摄参数获取方法、装置、电子设备和存储介质 | |
| JP7781214B2 (ja) | ヘッドマウントディスプレイ | |
| JP7353782B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| US11449196B2 (en) | Menu processing method, device and storage medium in virtual scene | |
| JP2020042362A (ja) | 制御装置及びその制御方法 | |
| JP2025028130A (ja) | 表示制御装置、表示制御方法、及びプログラム | |
| WO2025256318A1 (zh) | 作业机械的辅助图像展示方法、装置、介质及电子设备 | |
| CN118365835A (zh) | 渲染图像的方法、装置、电子设备和存储介质 | |
| JP2016139199A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
| JP7764451B2 (ja) | 表示制御装置、表示制御方法、及びプログラム | |
| CN115486091B (zh) | 使用虚拟现实设备进行视频处理的系统和方法 | |
| JP7608510B2 (ja) | 表示制御装置、表示制御方法、及びプログラム | |
| JP7118383B1 (ja) | 表示システム、表示方法、及び表示プログラム | |
| US12095964B2 (en) | Information processing apparatus, information processing method, and storage medium | |
| JP2022012900A (ja) | 情報処理装置、表示方法、及び、プログラム | |
| JP2023001850A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| CN118741068A (zh) | 显示控制装置、显示控制方法及存储介质 | |
| JP2022073648A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| JP6441426B1 (ja) | キャラクタ動画表示システム | |
| JP2023018253A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
| JP2018055257A (ja) | 情報処理装置、およびその制御方法ならびにプログラム |