[go: up one dir, main page]

JP6948171B2 - 画像処理装置および画像処理方法、プログラム - Google Patents

画像処理装置および画像処理方法、プログラム Download PDF

Info

Publication number
JP6948171B2
JP6948171B2 JP2017125592A JP2017125592A JP6948171B2 JP 6948171 B2 JP6948171 B2 JP 6948171B2 JP 2017125592 A JP2017125592 A JP 2017125592A JP 2017125592 A JP2017125592 A JP 2017125592A JP 6948171 B2 JP6948171 B2 JP 6948171B2
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
image processing
viewpoint
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017125592A
Other languages
English (en)
Other versions
JP2018092580A5 (ja
JP2018092580A (ja
Inventor
英人 榊間
英人 榊間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to EP17875244.0A priority Critical patent/EP3550522B1/en
Priority to KR1020197017753A priority patent/KR102246010B1/ko
Priority to CN201780074298.2A priority patent/CN110073414B/zh
Priority to PCT/JP2017/038605 priority patent/WO2018100928A1/ja
Publication of JP2018092580A publication Critical patent/JP2018092580A/ja
Priority to US16/425,814 priority patent/US11250619B2/en
Publication of JP2018092580A5 publication Critical patent/JP2018092580A5/ja
Application granted granted Critical
Publication of JP6948171B2 publication Critical patent/JP6948171B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数のカメラからの撮影画像を用いて仮想視点画像を生成する画像処理装置および画像処理方法、プログラムに関する。
昨今、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。複数視点画像から仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来る。そのため、通常の画像と比較してユーザに高臨場感を与えることが出来る。複数視点画像に基づく仮想視点コンテンツは、サーバなどの画像処理部が、複数のカメラにより撮影された画像を集約し、三次元モデル生成、レンダリングなどの処理を施すことで生成される。生成された仮想視点コンテンツはユーザ端末に伝送され、ユーザにより閲覧される。
画像処理部における仮想視点コンテンツの生成方法には複数の方法が存在する。例えば、三次元モデルを生成した上でレンダリングを行うモデルベースレンダリング、三次元モデルは生成せず、三次元空間上にカメラにて撮影された画像を配置する、イメージベースレンダリング、などがあげられる。それぞれの画像生成方法ごとに画質や処理負荷に特徴がある。特許文献1では、三次元形状データに基づく動画の表示において、リソース量、三次元形状データ量、フレームレートから1フレーム以内で処理可能なレンダリング方法を複数のレンダリング方法から選択し、レンダリングを行うことが記載されている。
特開2004−086508号公報
同じ画像生成方法によって生成された仮想視点画像の画質は、複数カメラの配置位置や仮想視点の位置などに応じて変化する。換言すれば、最も高画質に仮想視点画像を生成することが可能な画像生成方法は、カメラ配置及び仮想視点位置により変化する。特許文献1では、1フレーム以内で処理可能なレンダリング方法を選択することが可能であるが、選択した結果が高画質な方法であるとは限らない。そのため、高画質な仮想視点画像を安定して生成することが出来なかった。
本発明は、カメラの設置状態と仮想視点の位置との関係が変化しても、仮想視点画像を高画質に生成することが可能な画像処理装置および画像処理方法を提供することを目的とする。
上記の目的を達成するための本発明の一態様による画像処理装置は以下の構成を有する。すなわち、
複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理装置であって、
生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得手段と、
前記複数の撮影装置の設置に関わる撮影情報を取得する撮影情報取得手段と、
前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得手段により取得された視点情報と、前記撮影情報取得手段により取得された撮影情報とに基づいて複数の画像処理方法の中から決定する決定手段と、
前記決定手段により決定された画像処理方法を用いて生成された仮想視点画像を出力する出力手段と、を有する。
本発明によれば、カメラの設置条件及び仮想視点に基づき、仮想視点画像の生成に適した画像生成方法を決定することができる。結果として、カメラの設置状態と仮想視点の位置との関係が変化しても、仮想視点画像を高画質に生成することが可能となる。
実施形態に関わる、画像処理システムを説明する図。 第1実施形態に関わる、機能ブロックを説明する図。 第1実施形態による仮想視点画像の生成処理を説明するフローチャート。 第1実施形態における、画像生成手法の決定について説明する図。 画像生成手法を決定するための条件を記載したテーブルの例を示す図。 第2実施形態における、画像生成手法の決定について説明する図。 画像生成手法を決定するための条件を記載したテーブルの例を示す図。 第3実施形態に関わる、機能ブロックを説明する図。 第3実施形態による仮想視点画像の生成処理を説明するフローチャート。 第4実施形態に関わる、機能ブロックを説明する図。 第4実施形態による仮想視点画像の生成処理を説明するフローチャート。 第5実施形態に関わる、機能ブロックを説明する図。 第5実施形態による仮想視点画像の生成処理を説明するフローチャート。 第6実施形態に関わる、機能ブロックを説明する図。 第6実施形態による仮想視点画像の生成処理を説明するフローチャート。 画像コンピューティングサーバのハードウエア構成例を示すブロック図。 仮想視点画像を生成する際の三次元モデルの処理を示すフローチャート。 三次元モデルの点間隔を説明する図。 仮想視点画像の生成方法をユーザに選択させる処理を示すフローチャート。
以下、本発明の好適な実施形態について、図面を使用して詳細に説明する。
<第1実施形態>
以下、第1実施形態について説明する。第1実施形態では、複数のカメラ(カメラ群)の設置条件と生成する仮想視点画像の仮想視点情報とに基づき、複数の画像生成方法から適切なものを選択し、選択した画像生成方法で仮想視点画像を生成する。カメラ群の設置条件とは、カメラそれぞれの設置、姿勢、画角の情報を含む。また、仮想視点情報は、仮想視点の位置、姿勢、画角の情報を含む。
なお、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム100は、静止画及び動画の何れについても処理可能である。また、本実施形態では、画像処理システム100により提供される仮想視点コンテンツが仮想視点画像と仮想視点音声を含む例を中心に説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。
<画像処理システムの概要>
第1実施形態の画像処理システムについて図1のシステム構成図を用いて説明する。画像処理システム100は、競技場(スタジアム)やコンサートホールなどの施設に複数のカメラおよびマイクを設置して撮影及び集音を行い、任意の仮想視点からの仮想視点コンテンツを生成する。画像処理システム100は、センサシステム110a〜110z、画像コンピューティングサーバ122、コントローラ123、スイッチングハブ121、及びエンドユーザ端末126を有する。
センサシステム110aはマイク111a、カメラ112a、雲台113a、外部センサ114a、及びカメラアダプタ120aを有する。なお、センサシステム110aはこの構成に限定されるものではなく、少なくとも1台のカメラアダプタ120aと、少なくとも1台のカメラ112aまたは1台のマイク111aを有していれば良い。例えば、センサシステム110aは1台のカメラアダプタ120aと複数のカメラ112aで構成されてもよいし、1台のカメラ112aと複数のカメラアダプタ120aで構成されてもよい。画像処理システム100内の複数のカメラと複数のカメラアダプタはN対M(NとMは共に1以上の整数)で対応する。また、センサシステム110aは、マイク111a、カメラ112a、雲台113a、及びカメラアダプタ120a以外の装置を含んでいてもよい。本実施形態では、センサシステム110a〜110zは、それぞれ1台ずつのカメラ112a〜112zを有している。すなわち、画像処理システム100は、被写体を複数の方向から撮影するための複数のカメラを有する。
また、本実施形態では、カメラ112aとカメラアダプタ120aが分離された構成にしているが、同一筺体で一体化されていてもよい。その場合、マイク111aは一体化されたカメラ112aに内蔵されてもよいし、カメラ112aの外部に接続されていてもよい。センサシステム110b〜110zは、センサシステム110aと同様の構成を有する。なお、センサシステム110a〜110zは必ずしも同じ構成でなくてもよい。
本実施形態において、特別な説明がない場合は、センサシステム110aからセンサシステム110zまでの26セットのシステムを区別せずセンサシステム110と記載する。各センサシステム110内の装置についても同様に、特別な説明がない場合は区別せず、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120と記載する。なお、センサシステムの台数として26セットと記載しているが、あくまでも一例であり、これに限定されるものではない。
画像処理システム100において、センサシステム110a〜110zはそれぞれスイッチングハブ121を介して画像コンピューティングサーバ122に接続される。また、センサシステム110a〜110zはスイッチングハブ121に接続され、スイッチングハブ121を経由してセンサシステム110間のデータ送受信を行うスター型のネットワークが構成されている。マイク111aにて集音された音声と、カメラ112aにて撮影された画像は、カメラアダプタ120aを介し、スイッチングハブ121へ伝送される。
コントローラ123は制御ステーション124と仮想カメラ操作UI125を有する。制御ステーション124は画像処理システム100を構成するそれぞれのブロックに対して、ネットワーク180a〜180zおよび190a〜190cを通じて動作状態の管理およびパラメータ設定などを行う。ここで、ネットワークは、Ethernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEでもよいし、インターコネクトInfiniband、産業用イーサーネット等を組合せて構成されてもよい。また、これらに限定されず、他の種類のネットワークであってもよい。
また、制御ステーション124は、仮想視点画像を生成する対象のスタジアム等の三次元モデルを画像コンピューティングサーバ122に送信する。さらに、制御ステーション124はカメラ設置時に、キャリブレーションを実施する。具体的には、撮影対象のフィールド上にマーカーを設置し、カメラ112の撮影画像により、カメラ112の世界座標における位置と向き、画角および焦点距離を算出する。算出された各カメラの位置、向き、画角、焦点距離の情報は、カメラの設置に関わる情報として画像コンピューティングサーバ122に送信される。上記送信された三次元モデルおよび各カメラの情報は、画像コンピューティングサーバ122が仮想視点画像を生成する際に使用される。
仮想カメラ操作UI125は、生成する画像の仮想視点に関わる仮想視点情報を、画像コンピューティングサーバ122に送信する。仮想視点情報は、たとえば、仮想視点の位置、向き、画角、焦点距離を含む。画像生成装置としての画像コンピューティングサーバ122は、センサシステム110から取得したデータを基に、仮想カメラ操作UI125によって指定された仮想視点からの仮想視点画像を生成する。生成された仮想視点画像は、画像コンピューティングサーバ122からエンドユーザ端末126へ送信される。
タイムサーバ127は、スイッチングハブ121を介してセンサシステム110a〜110zに時刻および同期信号を配信する。時刻と同期信号を受信したカメラアダプタ120a〜120zは、それぞれカメラ112a〜112zを時刻と同期信号を基にGenlockさせ、画像フレーム同期を行う。即ち、タイムサーバ127は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像処理システム100は同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。なお、本実施形態ではタイムサーバ127が複数のカメラ112の時刻同期を管理するものとするが、これに限られるものではない。たとえば、時刻同期のための処理を各カメラ112又は各カメラアダプタ120が独立して行ってもよい。
画像コンピューティングサーバ122によって生成された仮想視点画像は、エンドユーザ端末126に送信される。エンドユーザ端末126を操作するユーザは、仮想カメラ操作UI125からの仮想視点の指定に応じた画像閲覧及び音声視聴が出来る。なお、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を中心に説明するが、必ずしも音声データが含まれていなくても良い。また、画像コンピューティングサーバ122は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG−DASHプロトコルを使ってエンドユーザ端末126へ送信してもよい。また、仮想視点画像は、非圧縮でエンドユーザ端末126へ送信されてもよい。とくに圧縮符号化を行う前者はエンドユーザ端末126としてスマートフォンやタブレットを想定している。また、後者は非圧縮画像を表示可能なディスプレイを想定している。すなわち、画像コンピューティングサーバ122は、エンドユーザ端末126の種別に応じて、出力される仮想視点画像の画像フォーマットを切り替えることが可能である。また、画像の送信プロトコルはMPEG−DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いても良い。
次に、図2を用いて、本実施形態に関わる構成要素についてより詳細に説明する。図2は、図1で説明した、画像コンピューティングサーバ122の機能ブロックを示す図である。
画像入力部201は、スイッチングハブ121を介して、センサシステム110から送信される画像及び音声を入力する。画像入力部201より入力されたデータは、データ蓄積制御部203により、ストレージ204へ蓄積される。設置情報入力部202は、制御ステーション124よりスタジアムの三次元モデルデータと、仮想視点画像の生成に用いられる画像を撮影するカメラ群の設置に関わる情報とを取得する。設置情報入力部202によって入力された情報は、データ蓄積制御部203を介し、ストレージ204へ記録される。
データ蓄積制御部203は、ストレージ204へのデータの書き込みとストレージ204からの読み出しを制御する。データ蓄積制御部203の具体例として、データベース機能を提供するデータベースマネージメントシステム(以下DBMS)があげられる。ストレージ204は、データを蓄積するデータ記録媒体である。ストレージ204の例としては、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)があげられる。
画像生成部205は、画像入力部201を介して入力されるカメラデータを元に、仮想視点画像を生成する。画像生成部205にて生成された仮想視点画像は映像出力部206へ送信され、映像出力部206を介して、エンドユーザ端末126へ出力される。映像出力部206は、画像生成部205にて生成された仮想視点画像を映像として図1のエンドユーザ端末126へ出力する。エンドユーザ端末126に応じた映像フォーマットの変換処理は映像出力部206にて実施される。
カメラ情報取得部207は、ストレージ204に記録されているカメラ群の設置に関わる情報を読み出し、生成方法決定部208へ送信する。視点情報取得部209は、仮想カメラ操作UI125より仮想視点情報を取得し、生成方法決定部208および画像生成部205へ送信する。生成方法決定部208は、カメラ情報取得部207より送信されるカメラ群の設置に関わる情報、および、視点情報取得部209より送信される仮想視点情報を基に、仮想視点画像を生成する際に使用する画像生成方法を決定する。
図16は、画像コンピューティングサーバ122のハードウエア構成例を示すブロック図である。図16において、CPU1601は、ROM1602に格納されたプログラムまたはRAM1603に展開されたプログラムを実行することにより、各種制御を実現する。ROM1602は不揮発性の読み出し専用メモリであり、RAM1603揮発性の読み書き可能なメモリである。必要なプログラムが二次記憶媒体1605から読み出され、RAM1603に展開され、CPU1601により実行されてもよい。ネットワークI/F1604は、画像コンピューティングサーバ122とネットワークを接続するインターフェースである。より具体的には、画像コンピューティングサーバ122を、ネットワークを介してスイッチングハブ121、コントローラ123、エンドユーザ端末126と接続する。二次記憶媒体1605はストレージ204を提供する。バス1606は、上述した各構成を相互に通信可能に接続する。画像コンピューティングサーバ122は、CPU1601がROM1602またはRAM1603に格納されたプログラムを実行することにより、図2で説明した各機能ブロックを実現する。
次に、第1実施形態による仮想視点画像の生成処理について図3のフローチャートを参照して説明する。第1実施形態では、仮想視点の情報(具体的には位置および向き)に応じて画像生成方法を切り替えながら、仮想視点画像を生成する。
まずステップS301にて、カメラ情報取得部207は、カメラの設置に関わる情報を生成方法決定部208に設定する。ステップS301の処理は、仮想視点画像を生成する際に予め実施される処理であり、基本的にはスタジアム等にカメラが設置された後に一度実施されれば十分である。次に、ステップS302において、視点情報取得部209は、生成する画像の仮想視点情報を取得する。仮想視点情報とは、本実施形態では仮想視点の位置および向きの情報である。
ステップS303において、生成方法決定部208は、ステップS301にて取得したカメラ群の設置に関わる情報と、ステップS302にて取得した仮想視点情報とに基づき、仮想視点画像の生成に用いられる画像生成方法を決定する。ここで、画像生成方法を決定する方法について、図4および図5を用いて説明する。
図4は、生成方法決定部208にて実施される処理を説明するための模式図である。図4はスタジアムに複数のカメラを設置した状態を示す図である。スタジアムおよびカメラの位置は、実際には三次元空間として示されるものであるが、説明を簡単とするため図4では二次元平面に図を簡略化して説明を行う。
図4の401a〜401f、411a〜411h、421a〜421fはスタジアムに設置されたカメラである。これらカメラはセンサシステム110に該当する。スタジアム等へ複数のカメラを設置する際、カメラをグループに分け、一つのグループが同じ箇所を撮影するように配置する。図4では、カメラ401a〜401fが一つのグループ(カメラ群)を構成し、共通の注視点403をそれぞれのカメラが向くよう姿勢が調整されていることを示している。同様に、カメラ411a〜411hが一つのグループを構成し、注視点413を向くように姿勢が調整されている。また、カメラ421a〜421fが一つのグループを構成し、注視点423を向くように姿勢が調整されている。
また、402は仮想カメラであり、仮想視点を示す。仮想カメラ402で示される仮想視点に基づき、仮想視点画像が生成される。仮想カメラ402の注視点433に最も近い注視点は注視点403であるので、注視点403に関わるカメラ群(カメラ401a〜401f)からの撮影画像が仮想視点画像の生成に用いられる。図4の404は、仮想カメラ402とカメラ401の向き(視線方向と称する)の差分となる角度(θ)である。以降この角度θを判定条件として画像生成手法を決定する処理について説明する。
画像生成方法として前述のとおり、モデルベースレンダリングとイメージベースレンダリングがある。モデルベースレンダリングは、カメラ画像から三次元モデルを生成し、生成したモデルを画像化して表示する。一方、イメージベースレンダリングは、カメラで撮影された画像を射影変換し、仮想視点の位置及び姿勢に近似して画像を生成する。図4の場合、注視点403に関わるカメラ群(カメラ401a〜401f)のうち仮想カメラ402に最も近いカメラはカメラ401aである。生成方法決定部208は、カメラ401aの視線方向と仮想カメラ402の視線方向との角度θの大きさに基づいて仮想視点画像の生成に用いる画像生成方法を決定する。ここで、視線方向は3次元で表されるので、角度θは、所定の2次元面(たとえば、スタジアムのフィールド面)に視線方向を投影した場合のそれら2つの方向がなす角度とする。本実施形態では、角度θが所定値と等しいかそれより大きい場合は、射影変換の誤差が大きくなると考えられるため、生成方法決定部208はモデルベースレンダリングを使用するように決定する。また、角度θが所定値より小さい場合は、射影変換の誤差が小さくなり、イメージベースレンダリングを行うに適した条件となる。したがって、角度θが所定値より小さい場合、生成方法決定部208は、イメージベースレンダリングを使用するように決定する。
上記図4の角度θを条件パラメータとして、画像生成方法を決定するためのテーブルを図5に示す。図5では例として、角度θが10°以内であればイメージベースレンダリングを、それ以外であればモデルベースレンダリングを選択するテーブルを示している。ステップS303では、生成方法決定部208が、仮想視点毎に角度θを算出し、角度θと閾値との比較により、仮想視点画像を生成するのに用いる画像生成方法を決定する。
ステップS304において、画像生成部205は、ステップS303で決定された画像生成方法を利用して、カメラ群から得られた撮影画像に基づいて仮想視点画像を生成する。ステップS305にて、仮想視点画像の生成が終了したか否かが判定される。仮想視点画像の生成が終了していない場合はステップS302からの処理を繰り返すことで、仮想視点画像の生成が継続される。仮想視点画像の生成の終了は、たとえば仮想カメラ操作UI125から指示される。
以上説明したように第1実施形態によれば、カメラの設置に関わる情報および仮想視点情報を基に、より高画質に仮想視点画像を生成することが可能な画像生成方法が選択される。したがって、高画質な仮想視点画像を安定して生成することが可能となる。
<第2実施形態>
第1実施形態では、仮想カメラと実際のカメラの視線方向の角度に基づいて使用すべき画像生成方法を選択したが、画像生成方法の選択条件はこれに限られるものではない。第2実施形態では、カメラ群の注視点近傍領域と仮想視点との関係を用いて画像生成方法を決定する例について説明する。第2実施形態におけるシステムの構成、機能ブロック及び処理フローは第1実施形態(図1、図2、図3)と同様である。また、画像コンピューティングサーバ122のハードウエア構成は図16で説明したとおりである。
図6はスタジアム上に配置されたカメラ及び仮想視点の位置を示す模式図である。図6の601a〜601dはスタジアムに設置されたカメラである。カメラ601a〜601dはセンサシステム110に該当する。カメラ601a〜601dは一つのグループ(カメラ群)を形成し、注視点603を向くように調整されている。図6の602aと602bは、それぞれ仮想視点を示す仮想カメラである。図6では二つの異なる仮想視点の仮想カメラ602a、602bを示している。
604a〜604dは、カメラ601a〜601dそれぞれの撮影範囲となるビューボリュームを示している。カメラ601a〜601dのビューボリューム604a〜604d全てが重なる領域を、図6の605に示す。本実施形態では、このような領域を注視点領域と呼ぶ。注視点領域605は、グループに属する全てのカメラ601a〜601dによって撮影される領域となる。注視点領域605内に存在する被写体は、多くのカメラによって撮影されている状態となるため、他の領域と比較して三次元モデルを高精度に作成することが可能となる。そこで、生成方法決定部208は、注視点領域605が仮想視点画像に含まれる割合に基づいて、使用する画像生成方法を決定する。
図6に示す仮想カメラ602aのビューボリューム内には、注視点領域605の領域が多く含まれる。よって、仮想カメラ602aの仮想視点画像を生成する際には、モデルベースレンダリングが適切である。一方、仮想カメラ602bの場合は、ビューボリュームに注視点領域605が含まれないため、モデルベースレンダリングによる高画質化が期待できず、仮想視点画像の生成にはイメージベースレンダリングが適している。したがって、仮想視点画像に含まれる注視点領域の割合が所定値より大きい場合にモデルベースレンダリングを使用し、所定値と等しいかそれより小さい場合にイメージベースレンダリングを使用するように決定される。このように生成する仮想視点画像内に含まれる注視点領域の割合に基づいて画像生成手法を切り替えることで、高画質に仮想視点画像を生成可能な画像生成方法を選択することができる。
仮想カメラのビューボリュームに含まれる、注視点領域605の含まれる割合を条件パラメータとして、画像生成手法を決定するためのテーブルを図7に示す。図7では例として、注視点領域605の画像内のカバー率が80%以上であれば、当該画像の生成にモデルベースレンダリングを、それ以外であればイメージベースレンダリングを選択するテーブルを示している。第1実施形態にて説明した、図3のステップS303では、予め求められた図6の注視点領域605及び仮想視点の位置と姿勢より、注視点領域605のカバー率を求め、カバー率に応じて画像生成手法を決定する。
以上説明したように第2実施形態によれば、第1実施形態と同様にカメラの設置に関わる情報及び仮想視点情報を基に、より高画質に仮想視点画像を生成可能な画像生成方法を選択することができる。したがって、高画質な仮想視点画像を安定して生成することが可能となる。
<第3実施形態>
第3実施形態では、仮想カメラ操作UI125より指定される仮想視点の履歴情報も利用して画像生成方法を決定する。第3実施形態による画像処理システム100の構成は第1実施形態(図1)と同様である。図8に、第3実施形態に関わる画像コンピューティングサーバ122の機能ブロック図を示す。図8の機能ブロックにおいて、第1実施形態(図2)と同様の機能ブロックについては、同じ番号を付与してある。また、画像コンピューティングサーバ122のハードウエア構成は図16で説明したとおりである。
図8において、データ蓄積制御部203は、撮影画像をストレージ204に蓄積することに加えて、視点情報取得部209にて取得された仮想視点情報を時間と対応付けて、履歴情報として蓄積する。履歴情報取得部801は、仮想視点情報の時間軸方向の変化を示す履歴情報をストレージ204から読み出し、生成方法決定部208へ送信する。
第3実施形態による仮想視点画像の生成処理について、図9のフローチャートを参照して説明する。図9は、第3実施形態による仮想視点画像の生成処理を説明するフローチャートである。なお、図9のステップS901、S902の処理は、第1実施形態のステップS301、S302の処理と同様である。
ステップS903において、履歴情報取得部801は、仮想視点の履歴情報を取得する。ステップS904において、生成方法決定部208は、仮想視点画像を生成するための画像生成方法を決定する。画像生成方法は、ステップS901で取得したカメラの設置に関わる情報、ステップS902で取得した仮想視点情報、ステップS903で取得した仮想視点の履歴情報に基づいて決定される。以下、ステップS904で実施される処理について説明を加える。
仮想視点の移動は三次元空間上の至る箇所を通る可能性がある。その際、それまでの仮想視点の動きを示す履歴を使用して、以降の視点位置をある程度推定することが可能となる。たとえば、生成方法決定部208は、現時点の仮想視点の位置および向きと、過去の時刻における仮想視点の位置および向きの差分に基づき、次時刻の仮想視点の位置と向きを推定する。そして、該推定した動きが被写体に対して円弧を描くようなものであった場合、モデルを生成した上で映像生成を行った方がより高画質に表現できる可能性がある。したがって、たとえば、生成方法決定部208は、第2実施形態のような画像生成方法の決定と併用して、仮想視点画像における注視領域の割合が小さくても、履歴情報が仮想視点の円弧状の移動を示す場合には、モデルベースレンダリングを選択する。たとえば、仮想視点画像における注視領域の割合が50%以上80%以下であって、履歴情報が仮想視点の円弧状の移動を示す場合にはモデルベースレンダリングを選択する。このように、推定した仮想視点の動きに基づき、画像生成手法を選択することで、そのシーンに対してより好適な画像生成手法を選択することが可能となる。
ステップS905にて、画像生成部205は、ステップS904で決定された画像生成方法を用いて、カメラ群から得られた撮影画像に基づいて仮想視点画像を生成する。ステップS906にて、仮想視点画像の生成が終了したか否かを判定し、終了していない場合はステップS902からの処理を繰り返す。ステップS906はステップS305と同様である。
以上のように、第3実施形態によれば、カメラの設置に関わる情報、仮想視点情報、仮想視点の履歴情報を基に、仮想視点画像の生成に適切な画像生成手法が選択される。そのため、シーンに応じた、高画質な仮想視点画像を安定して生成することが可能となる。なお、上記実施形態では、第1実施形態または第2実施形態による画像生成方法の決定方法を併用する例を示したが、第1実施形態または第2実施形態の決定方法を併用しなくてもよい。たとえば、履歴情報のみに基づいて使用する画像生成方法が決定されてもよい。
<第4実施形態>
第4実施形態では、仮想カメラ操作UI125より指定される仮想視点に対応する仮想視点画像に含まれるオブジェクトの種別を推定し、推定したオブジェクトの種別に基づいて画像生成方法を決定する。ここでオブジェクトの種別とは、人物または構造物などの種別や、凹凸のある複雑物体であるか否か等である。第4実施形態による画像処理システム100の構成は第1実施形態(図1)と同様である。図10に、第4実施形態に関わる画像コンピューティングサーバ122の機能ブロック図を示す。図10の機能ブロックにおいて、第1実施形態(図2)と同様の機能ブロックについては、同じ番号を付与してある。また、画像コンピューティングサーバ122のハードウエア構成は図16で説明したとおりである。
オブジェクト種別推定部1001は、視点情報取得部209にて取得された仮想視点情報を元に、仮想視点画像内のオブジェクト及びその種別を推定する。仮想視点画像に存在するオブジェクトの推定には、仮想視点画像を生成するために入力された撮影画像が用いられる。たとえば、仮想視点が注目する位置にもっとも近い注視点に対応している一つのグループ(カメラ群)のうち、仮想視点に最も近いカメラにより撮影された画像に含まれているオブジェクトを判定する。図4の例の場合、カメラ401aからの撮影画像が用いられる。
第4実施形態による仮想視点画像の生成処理について、図11のフローチャートを参照して説明する。なお、ステップS1101、S1102の処理は、第1実施形態のステップS301、S302と同様である。
ステップS1103で、オブジェクト種別推定部1001は、仮想視点画像に含まれるオブジェクト及びその種別を推定する処理を行う。オブジェクトの推定は、例えば予め求められている形状とのパターンマッチング技術などによって実施され得る。ステップS1104において、生成方法決定部208は、仮想視点画像を生成するための画像生成方法を決定する。画像生成方法の決定は、ステップS1101にて取得したカメラの設置に関わる情報、ステップS1102にて取得した仮想視点情報、ステップS1103にて取得した仮想視点画像に含まれるオブジェクト種別に基づいてなされる。以下、ステップS1104で実施される画像生成方法の決定処理について説明を加える。
仮想視点画像に含まれるオブジェクトは様々である。例えばスタジアムにおいては人物など複雑な形状のオブジェクトであり、コンサートなどではピアノなどの人工物体がオブジェクトとなる。オブジェクトに応じて仮想視点画像の生成に適する画像生成方法は異なる。例えば人物であれば凹凸形状を表現するためのモデルベースレンダリングが適しており、複数平面による簡単な形状であればイメージベースレンダリングを選択することでより好適な画像を生成可能となる。ステップS1104では、オブジェクト種別を利用し、画像生成手法を切り替える処理を行う。たとえば、図5(B)に示した判定条件と画像生成方法の関係を用いることができる。図5(A)と比べて、5°≦θ<10°の場合に、オブジェクト種別の判定結果に応じてイメージベースレンダリングかモデルベースレンダリングかを選択する点が追加されている。
ステップS1105において、画像生成部205ステップS1104で決定された画像生成手法を利用して、仮想視点画像が生成される。ステップS1106にて、仮想視点画像の生成が終了したか否かを判定し、終了していない場合はステップS1102からの処理を繰り返すことで、仮想視点画像の生成を継続する。S1105〜S1106の処理は第1実施形態のS304〜S305の処理と同様である。
以上説明したように第4実施形態によれば、カメラの設置に関わる情報、仮想視点情報、仮想視点に含まれるオブジェクト種別に基づいて、適切な画像生成手法が選択される。選択された画像生成手法を使用することで、オブジェクト毎に好適な、高画質な仮想視点画像を生成することが可能となる。
<第5実施形態>
第5実施形態では、複数の画像生成方法を用いて複数の仮想視点画像を生成し、それぞれを評価して最も画質の良い画像を出力する。第5実施形態による画像処理システム100の構成は第1実施形態(図1)と同様である。図12に、第5実施形態による画像コンピューティングサーバ122の機能ブロックを示す。図12の機能ブロックにおいて、第1実施形態(図2)の機能ブロックと同様の機能ブロックについては、同じ番号を付与してある。また、画像コンピューティングサーバ122のハードウエア構成は図16で説明したとおりである。
図12において、画像評価部1201は、画像生成部205にて生成された複数の仮想視点画像を評価し、評価に基づき最も好適な画像を映像出力部206へ送信する。
第5実施形態による仮想視点画像の生成処理について、図13のフローチャートを参照して説明する。なお、ステップS1301、S1302の処理は、第1実施形態(図3)におけるステップS301、S302と同様の処理である。
ステップS1303において、生成方法決定部208は、ステップS1301にて取得したカメラの設置に関わる情報と仮想視点情報に基づいて、仮想視点画像を生成するための複数の画像生成方法を決定する。すなわち、生成方法決定部208は、一つの仮想視点について、様々な画像生成方法の中から、今回のカメラの設置に関する情報と仮想視点情報に基づいて適切な画像生成方法の複数の候補を選択する。ステップS1304において、画像生成部205は、ステップS1303で選択された複数の画像生成方法を使用して複数の仮想視点画像を生成する。
ステップS1305にて、画像評価部1201は、ステップS1304にて生成された複数の仮想視点画像を評価し、出力する画像を決定する。画像の評価方法としては、例えば、上記一つの仮想視点が注目する位置にもっとも近い注視点に対応している一つのグループ(カメラ群)のうち、当該一つの仮想視点の最も近くに位置する実カメラの画像を正解画像とする。そして、複数の仮想視点画像のそれぞれと正解画像との差分によって各仮想視点画像を評価する方法があげられる。画像評価部1201は、生成された複数の仮想視点画像のうち、正解画像との差分が最も小さい仮想視点画像を、最も画質の良い画像と判定する。ステップS1306において、画像評価部1201は、ステップS1305で決定した仮想視点画像を、映像出力部206を介して出力する。
ステップS1307にて、仮想視点画像の生成が終了したか否かを判定し、終了していない場合はステップS1102からの処理を繰り返すことで、仮想視点画像の生成を継続する。ステップS1307の処理は、第1実施形態(図3)のステップS305と同様である。
以上説明したように、第5実施形態によれば、複数種類の画像生成方法により複数の仮想視点画像を生成し、これらを評価して出力する仮想視点画像を決定する。そのため、より確実に高画質な画像を出力することが可能となる。
なお、第5実施形態では、カメラの設置に関する情報と仮想視点情報に基づいて使用する複数の画像生成方法を決定したが、これに限られるものではない。たとえば、イメージベースレンダリングとモデルベースレンダリングの2種類の画像生成方法が用意された構成において、画像生成部205はこれら2種類の画像生成方法で仮想視点画像を生成し、画像評価部1201に送るようにしてもよい。この場合、生成方法決定部208は省略可能である。
<第6実施形態>
第6実施形態では、仮想視点画像を生成するための画像生成方法を切り替えるか否かを直前の切り替えからの経過時間に基づいて判定することにより、適切なタイミングで画像生成方法を切り替える。図14に、第6実施形態の画像コンピューティングサーバ122の機能ブロックを示す。図14の機能ブロックにおいて、第1実施形態(図2)の機能ブロック図と同様の機能ブロックには、同じ番号を付与してある。また、画像コンピューティングサーバ122のハードウエア構成は図16で説明したとおりである。
図14において、切替制御部1401は、生成方法決定部208にて決定された仮想視点画像の画像生成方法について、実際に適用するタイミングを決定する。
第6実施形態による仮想視点画像の生成処理について、図15のフローチャートを参照して説明する。第6実施形態では、画像生成方法の切り替えのタイミングを制御するパラメータとして、前回切り替えが実施された時刻を利用する。なお、ステップS1501〜S1503の処理は、第1実施形態(図3)のステップS301〜S303と同様の処理である。
ステップS1504にて、生成方法決定部208が決定した画像生成方法が、画像生成部205で現在用いられている画像生成方法から変化したか否かを判定する。変化したと判定された場合、ステップS1505において、切替制御部1401は、前回に画像生成方法が変更された時刻からの差分(経過時間)を求め、これを閾値Tと比較する。差分が閾値T以上である場合は、ステップS1506にて、仮想視点画像の生成に用いる画像生成方法をS1503で決定された画像生成方法に更新する。差分が閾値T未満の場合は、ステップS1506がスキップされ、画像生成方法は更新されない。こうして、画像生成方法が前回に変更されてから所定時間が経過するまでは、画像生成方法は変更されない。
以上のようにして、画像生成方法の設定を終えると、ステップS1507にて、画像生成部205は、設定されている画像生成方法を用いて仮想視点画像を生成する。ステップS1508にて、仮想視点画像の生成が終了したか否かを判定し、終了していない場合はステップS1502からの処理を繰り返すことで、仮想視点画像の生成を継続する。ステップS1508はステップS305と同様である。
以上説明したように第6実施形態によれば、適切なタイミングで画像生成方法を切り替えることができる。これにより例えば、頻繁に画像生成方法が切り替わってしまうこと等を防ぐことが可能となり、より高画質で見やすい仮想視点画像を生成することができる。
<第7実施形態>
第7実施形態では、仮想カメラと、仮想カメラに含まれる三次元モデルの情報に基づき、使用すべき画像生成方法を選択する例について説明する。また、第7実施形態においては、複数のモデルベースレンダリングの中から使用すべき画像生成方法を選択する例について説明する。より具体的には、仮想カメラから三次元モデルまでの距離に応じて、使用する三次元モデルの精密度を変化させるよう、レンダリング処理(モデルベースレンダリング)を切り替える。第7実施形態におけるシステムの構成及び機能ブロックは第1実施形態(図1、図2)と同様である。また、画像コンピューティングサーバ122のハードウエア構成は図16で説明したとおりである。また、第7実施形態では、前提として、三次元モデルの形状は複数の点によって表わされており、三次元モデルを構成する点の間隔(ボクセルサイズ)は5mmであるとする。
図17のフローチャートを参照して本実施形態の画像生成方法の選択について説明する。図17は、仮想視点画像を1フレーム生成する際の三次元モデルの処理について説明するフローチャートである。
ステップS1701にて、視点情報取得部209は生成する画像の仮想視点を取得する。次にステップS1702にて、生成方法決定部208は、仮想視点内に含まれるオブジェクト数である、三次元モデルの数を求める。ステップS1703〜S1707は、三次元モデル毎に行われる処理であり、仮想視点に含まれる三次元モデルすべてについて繰り返し実施される。
ステップS1703において、生成方法決定部208は、生成方法を判定する対象の三次元モデルを特定する。ステップS1704にて、生成方法決定部208は、仮想視点からステップS1703で特定した三次元モデルまでの距離を算出する。具体的には、例えば、仮想視点の中心座標から三次元モデルの代表点(例えば重心)までの距離が取得される。ただし距離の定義は上記例に限らない。ステップS1705において、生成方法決定部208は、ステップS17004で算出された距離とあらかじめ決められた一定の値との比較を行う。算出された距離があらかじめ決められた一定の値以上であれば処理はステップS1706へ遷移し、算出された距離があらかじめ決められた一定の値未満であれば処理はステップS1707へ遷移する。
ステップS1706及びステップS1707では、仮想視点画像のレンダリングにて使用する三次元モデルの点間隔(ボクセルサイズ)をそれぞれ設定する。仮想視点から三次元モデルまでの距離があらかじめ決められた一定値以上の場合は、レンダリングで使用する三次元モデルの点間隔を10mmと広く設定する。他方、仮想視点から三次元モデルまでの距離があらかじめ決められた一定値未満の場合はレンダリングで使用する三次元モデルの点間隔を5mmと狭く設定する。
ステップS1708にて、生成方法決定部208は、仮想視点に含まれるすべての三次元モデルについて処理が行われたかを判定する。未処理の三次元モデルがある場合は、処理はステップS1703へ戻り、未処理の三次元モデルについて上述の処理が繰り返される。他方、仮想視点に含まれるすべての三次元モデルについて処理済みであると判断された場合は、本処理を終了する。その後、生成方法決定部208は、各三次元モデルについて決定した三次元モデルの点間隔を画像生成部205に伝える。画像生成部205は、指定された点間隔の三次元モデルを用いてモデルベースレンダリングを実行し、オブジェクトをレンダリングする。
図18を用いて、図17のフローチャートで実施する処理について補足説明を加える。図18の1801に、点で構成された三次元モデルの断面図を示す。図18(A)の1801は四角柱の断面図を示しており、点の間隔は5mmで表現されている。図18(B)は、仮想視点からの距離が近い場合を示している。これは、図17のフローチャートのステップS1705にて、距離が一定値未満であると判定された場合(S1705でYES)に相当する。距離が近い場合は、仮想視点面に投影される三次元モデルが大きくなるため、使用する点の精密度を上げる必要がある。したがって、三次元モデルの点の間隔は5mmに設定される。
図18(C)は、仮想視点からの距離が遠い場合を示している。これは、図17のステップS1705にて、距離が一定値以上であると判定された場合(S1705でNO)に相当する。距離が遠い場合、仮想視点面に投影される三次元モデルが小さくなるため、使用する点の精密度を下げた場合であっても、実際に生成される画像の画質に対する影響が小さい。このように、仮想視点と三次元モデルとの間の距離に応じて処理を行う点の数を増減することで、画質に与える影響を抑えつつ処理量を低減することが可能である。したがって、安定して仮想視点画像を生成することが可能となる。
以上説明したように第7実施形態によれば、仮想カメラに含まれる三次元モデルまでの距離に応じて、使用する三次元モデルの精密度(点間隔)を変化させるので、画質を維持しつつ安定した仮想視点画像を生成することが可能となる。
なお第7の実施形態では、複数のモデルベースレンダリングの方式から画像生成に使用するレンダリング方式を切り替える方法について説明を行ったが、これに限らない。例えば、複数のイメージベースレンダリング方式から画像生成に使用するレンダリング方式を切り替える方法も考えられる。具体的には、イメージベースレンダリング方式において使用されるカメラ画像の数を切り替えてもよい。例えば、あるカメラの撮影方向と仮想視点の視線方向との角度差が小さい場合には、そのカメラによるカメラ画像のみを使用してレンダリングを行ってもよい。一方、仮想視点の視線方向が隣接する二つのカメラの撮影方向の中心付近である場合は、これら二つのカメラのカメラ画像を合成した画像を使用してレンダリングを行ってもよい。すなわち、仮想視点とカメラ配置の関係に応じて、レンダリングに用いるカメラ画像の数が増減されてもよい。また例えば、仮想視点からオブジェクトまでの距離に応じてレンダリングに用いるカメラ画像の数が増減されてもよい。具体的には、仮想視点からオブジェクトまでの距離が小さい場合には、高画質な仮想視点画像を生成するために、仮想視点の近傍に位置する複数のカメラのカメラ画像を合成した画像を使用してレンダリングを行ってもよい。一方、仮想視点からオブジェクトまでの距離が大きい場合には、処理の簡略化のために、単一のカメラによるカメラ画像を射影変換した画像を使用してレンダリングを行ってもよい。
また、第1実施形態〜第6実施形態で説明した方法でモデルベースレンダリングを使用することが決定された場合に、第7実施形態で説明した方法でさらに画像生成に用いる三次元モデルの点を選択するようにしてもよい。同様に、第1実施形態〜第6実施形態で説明した方法でイメージベースレンダリングを使用することが決定された場合に、第7実施形態で説明した方法でさらに画像生成に用いるカメラ画像の数を調整するようにしてもよい。
<第8実施形態>
第8実施形態では、複数の画像生成方法からユーザが任意の画像生成方法を選択する例について説明する。仮想視点画像の生成方法は、方式によってそれぞれ特徴がある。例えば、モデルベースレンダリングは三次元モデルを用いたレンダリングであるため、滑らかな画像を生成可能であるが、生成する三次元モデルの精密さによっては仮想視点画像の解像感が失われる。一方、イメージベースレンダリングでは滑らかさは無いが、画像をそのまま変換して使用するため、仮想視点画像の先鋭感が増加する傾向にある。このように画像生成方法の違いによって生成される仮想視点画像の特徴がそれぞれ異なる。第8実施形態では、ユーザが、仮想視点画像の画像生成方法をユーザの好みによって決定できるようにした構成を説明する。
第8実施形態におけるシステムの構成及び機能ブロックは第1実施形態(図1、図2)と同様である。また、画像コンピューティングサーバ122のハードウエア構成は図16で説明したとおりである。
図19のフローチャートを用いて、第8実施形態の処理について説明する。図19は、仮想視点画像の生成方法を選択する際の処理について説明するフローチャートである。
ステップS1901にて、仮想カメラ操作UI125は、画像コンピューティングサーバ122にて実行可能な仮想視点画像の生成方式の情報を取得する。例えば、仮想カメラ操作UI125においてユーザが画像生成方式のマニュアル選択を指示すると、仮想カメラ操作UI125から画像コンピューティングサーバ122に対して画像生成方式の取得指示が発行される。画像コンピューティングサーバ122は、この取得指示に応じて、生成方法決定部208で選択が可能な画像生成方法を仮想カメラ操作UI125に通知する。なお、S1901において取得される画像生成方法には、複数のモデルベースレンダリングの方法と、複数のイメージベースレンダリングの方法とが含まれ得る。
ステップS1902において、仮想カメラ操作UI125はステップS1901で取得した画像生成方式をリスト表示する。ステップS1902にて表示されたリストから、仮想カメラ操作UI125を操作する操作者が、所望の画像生成方式を選択すると、ステップS1903にて、仮想カメラ操作UI125は選択された画像生成方式を画像コンピューティングサーバ122へ通知する。生成方法決定部208は、画像生成部205が使用する画像生成方法を通知された画像生成方法に設定する。
以上説明したように第8実施形態によれば、ユーザ自身が仮想視点画像を生成する方式を選択可能となる。本実施形態により、ユーザの好みに応じた仮想視点画像の生成が可能となる。
なお、図19で説明した処理は任意のタイミングにて実施可能である。例えば、仮想視点画像を生成する際の初期処理にて実施する場合や、仮想視点画像を生成している途中に設定を変更することも可能である。
また、第8実施形態の説明では、画像生成方法の選択肢がリスト形式で表示するとしたが、これに限らない。
また、上述の第1〜第8実施形態の構成を適宜組み合わせても良いことは言うまでもない。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110:センサシステム、112:カメラ、122:画像コンピューティングサーバ、201:画像入力部、202:設置情報入力部、203:データ蓄積制御部、204:ストレージ、205:画像生成部、206:映像出力部、207:カメラ情報取得部、208:生成方法決定部、209:視点情報取得部

Claims (19)

  1. 複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理装置であって、
    生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得手段と、
    前記複数の撮影装置の設置に関わる撮影情報を取得する撮影情報取得手段と、
    前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得手段により取得された視点情報と、前記撮影情報取得手段により取得された撮影情報とに基づいて複数の画像処理方法の中から決定する決定手段と、
    前記決定手段により決定された画像処理方法を用いて生成された仮想視点画像を出力する出力手段と、を有することを特徴とする画像処理装置。
  2. 前記撮影情報は、撮影装置の位置、姿勢、及び画角の少なくとも何れかの情報を含むことを特徴とする請求項に記載の画像処理装置。
  3. 前記決定手段は、前記視点情報取得手段により取得された視点情報から特定される仮想視点からの視線方向と、前記撮影情報取得手段により取得された撮影情報から特定される撮影装置の撮影方向との関係に基づいて、前記画像処理方法を決定することを特徴とする請求項又はに記載の画像処理装置。
  4. 前記決定手段は、前記仮想視点からの視線方向と前記撮影装置の撮影方向とがなす角度が所定値より小さい場合には撮影画像を射影変換して画像を処理する画像処理方法を、前記角度が前記所定値より小さくない場合には複数の撮影画像に基づく三次元モデルを用いて画像を処理する画像処理方法を、前記仮想視点画像を生成するために用いられる画像処理方法として決定することを特徴とする請求項に記載の画像処理装置。
  5. 前記決定手段は、前記視点情報取得手段により取得された視点情報から特定される仮想視点に応じた視野と、前記撮影情報取得手段により取得された撮影情報から特定される複数の撮影装置の撮影範囲内に含まれる注視領域との関係に基づいて、前記画像処理方法を決定することを特徴とする請求項乃至の何れか1項に記載の画像処理装置。
  6. 前記決定手段は、前記仮想視点に応じた視野内における前記注視領域が占める割合が所定値より大きい場合には複数の撮影画像に基づく三次元モデルを用いて画像を処理する画像処理方法を、前記割合が前記所定値より大きくない場合には撮影画像を射影変換して画像を処理する画像処理方法を、前記仮想視点画像を生成するために用いられる画像処理方法として決定することを特徴とする請求項に記載の画像処理装置。
  7. 複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理装置であって、
    生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得手段と、
    前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得手段により取得された視点情報から特定される仮想視点の変化の状況に基づいて複数の画像処理方法の中から決定する決定手段と、
    前記決定手段により決定された画像処理方法を用いて生成された仮想視点画像を出力する出力手段と、を有し、
    前記決定手段は、前記仮想視点の位置の変化が円弧状の移動である場合には複数の撮影画像に基づく三次元モデルを用いて画像を処理する画像処理方法を、前記仮想視点画像を生成するために用いられる画像処理方法として決定することを特徴とする画像処理装置。
  8. 複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理装置であって、
    生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得手段と、
    前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得手段により取得された視点情報から特定される仮想視点の変化の状況に基づいて複数の画像処理方法の中から決定する決定手段と、
    前記決定手段により決定された画像処理方法を用いて生成された仮想視点画像を出力する出力手段と、を有し、
    前記決定手段は、前記複数の画像処理方法のうち2以上の画像処理方法を決定し、
    前記出力手段は、前記決定手段により決定された前記2以上の画像処理方法を用いて生成された2以上の仮想視点画像の中から選択された仮想視点画像を出力することを特徴とする画像処理装置。
  9. 複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理装置であって、
    生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得手段と、
    前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得手段により取得された視点情報から特定される仮想視点の変化の状況に基づいて複数の画像処理方法の中から決定する決定手段と、
    前記決定手段により決定された画像処理方法を用いて生成された仮想視点画像を出力する出力手段と、を有し、
    前記決定手段は、前記画像処理方法が変更されてから所定時間が経過するまでは前記画像処理方法が新たに変更されないように、前記画像処理方法を決定することを特徴とする画像処理装置。
  10. 複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理装置であって、
    生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得手段と、
    前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得手段により取得された視点情報から特定される仮想視点の変化の状況に基づいて複数の画像処理方法の中から決定する決定手段と、
    前記決定手段により決定された画像処理方法を用いて生成された仮想視点画像を出力する出力手段と、を有し、
    前記複数の画像処理方法には、複数の撮影画像に基づく三次元モデルを用いて画像を処理する画像処理方法撮影画像を射影変換して画像を処理する画像処理方法とが含まれることを特徴とする画像処理装置。
  11. 前記決定手段は、前記視点情報取得手段により取得された視点情報から特定される仮想視点に応じた視野に含まれるオブジェクトの種別に基づいて、前記画像処理方法を決定することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記複数の画像処理方法には、複数の撮影画像に基づく三次元モデルを用いて画像を処理する複数の画像処理方法であって使用される三次元モデルの粗さが異なる複数の画像処理方法が含まれることを特徴とする請求項1乃至1の何れか1項に記載の画像処理装置。
  13. 前記複数の画像処理方法には、撮影画像を射影変換して画像を処理する複数の画像処理方法であって使用される撮影画像の数が異なる複数の画像処理方法が含まれることを特徴とする請求項1乃至1の何れか1項に記載の画像処理装置。
  14. 複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理方法であって、
    生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得工程と、
    前記複数の撮影装置の設置に関わる撮影情報を取得する撮影情報取得工程と、
    前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得工程において取得された視点情報と、前記撮影情報取得工程において取得された撮影情報とに基づいて複数の画像処理方法の中から決定する決定工程と、
    前記決定工程において決定された画像処理方法を用いて生成された仮想視点画像を出力する出力工程と、を有することを特徴とする画像処理方法。
  15. 複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理方法であって、
    生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得工程と、
    前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得工程により取得された視点情報から特定される仮想視点の変化の状況に基づいて複数の画像処理方法の中から決定する決定工程と、
    前記決定工程により決定された画像処理方法を用いて生成された仮想視点画像を出力する出力工程と、を有し、
    前記決定工程は、前記仮想視点の位置の変化が円弧状の移動である場合には複数の撮影画像に基づく三次元モデルを用いて画像を処理する画像処理方法を、前記仮想視点画像を生成するために用いられる画像処理方法として決定することを特徴とする画像処理方法。
  16. 複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理方法であって、
    生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得工程と、
    前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得工程により取得された視点情報から特定される仮想視点の変化の状況に基づいて複数の画像処理方法の中から決定する決定工程と、
    前記決定工程により決定された画像処理方法を用いて生成された仮想視点画像を出力する出力工程と、を有し、
    前記決定工程は、前記複数の画像処理方法のうち2以上の画像処理方法を決定し、
    前記出力工程は、前記決定工程により決定された前記2以上の画像処理方法を用いて生成された2以上の仮想視点画像の中から選択された仮想視点画像を出力することを特徴とする画像処理方法。
  17. 複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理方法であって、
    生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得工程と、
    前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得工程により取得された視点情報から特定される仮想視点の変化の状況に基づいて複数の画像処理方法の中から決定する決定工程と、
    前記決定工程により決定された画像処理方法を用いて生成された仮想視点画像を出力する出力工程と、を有し、
    前記決定工程は、前記画像処理方法が変更されてから所定時間が経過するまでは前記画像処理方法が新たに変更されないように、前記画像処理方法を決定することを特徴とする画像処理方法。
  18. 複数の撮影装置により異なる位置から撮影することで得られる複数の撮影画像に基づく仮想視点画像を出力する画像処理方法であって、
    生成すべき仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を示す視点情報を取得する視点情報取得工程と、
    前記複数の撮影画像に基づいて前記仮想視点に対応する仮想視点画像を生成するために用いられる画像処理方法を、前記視点情報取得工程により取得された視点情報から特定される仮想視点の変化の状況に基づいて複数の画像処理方法の中から決定する決定工程と、
    前記決定工程により決定された画像処理方法を用いて生成された仮想視点画像を出力する出力工程と、を有し、
    前記複数の画像処理方法には、複数の撮影画像に基づく三次元モデルを用いて画像を処理する画像処理方法撮影画像を射影変換して画像を処理する画像処理方法とが含まれることを特徴とする画像処理方法。
  19. コンピュータを、請求項1乃至1のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラム。
JP2017125592A 2016-11-30 2017-06-27 画像処理装置および画像処理方法、プログラム Active JP6948171B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP17875244.0A EP3550522B1 (en) 2016-11-30 2017-10-26 Image processing device and method
KR1020197017753A KR102246010B1 (ko) 2016-11-30 2017-10-26 화상 처리 장치, 화상 처리 방법 및 저장 매체
CN201780074298.2A CN110073414B (zh) 2016-11-30 2017-10-26 图像处理设备、方法和非暂时性计算机可读存储介质
PCT/JP2017/038605 WO2018100928A1 (ja) 2016-11-30 2017-10-26 画像処理装置および方法
US16/425,814 US11250619B2 (en) 2016-11-30 2019-05-29 Image processing apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016233500 2016-11-30
JP2016233500 2016-11-30

Publications (3)

Publication Number Publication Date
JP2018092580A JP2018092580A (ja) 2018-06-14
JP2018092580A5 JP2018092580A5 (ja) 2020-07-30
JP6948171B2 true JP6948171B2 (ja) 2021-10-13

Family

ID=62565598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017125592A Active JP6948171B2 (ja) 2016-11-30 2017-06-27 画像処理装置および画像処理方法、プログラム

Country Status (4)

Country Link
EP (1) EP3550522B1 (ja)
JP (1) JP6948171B2 (ja)
KR (1) KR102246010B1 (ja)
CN (1) CN110073414B (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7193938B2 (ja) * 2018-07-04 2022-12-21 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP2020042665A (ja) * 2018-09-12 2020-03-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP7233881B2 (ja) * 2018-10-24 2023-03-07 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7249755B2 (ja) * 2018-10-26 2023-03-31 キヤノン株式会社 画像処理システムおよびその制御方法、プログラム
US10818077B2 (en) * 2018-12-14 2020-10-27 Canon Kabushiki Kaisha Method, system and apparatus for controlling a virtual camera
JP7332326B2 (ja) * 2019-04-18 2023-08-23 日本放送協会 映像効果装置及びプログラム
JP7401196B2 (ja) * 2019-05-23 2023-12-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020262392A1 (ja) 2019-06-28 2020-12-30 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2022014341A1 (ja) * 2020-07-17 2022-01-20 ソニーグループ株式会社 情報処理装置および画像データの生成方法
KR20230000334A (ko) 2021-06-24 2023-01-02 현대자동차주식회사 모터 구동 시스템을 이용한 차량용 배터리 충전 시스템
KR20230000335A (ko) 2021-06-24 2023-01-02 현대자동차주식회사 모터 구동 시스템을 이용한 차량용 배터리 충전 시스템
KR20230013551A (ko) 2021-07-19 2023-01-26 현대자동차주식회사 모터 구동 시스템을 이용한 차량용 배터리 충전 시스템
US11769293B2 (en) 2021-11-23 2023-09-26 Virnect Co., Ltd. Camera motion estimation method for augmented reality tracking algorithm and system therefor
JP7493542B2 (ja) * 2022-01-31 2024-05-31 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2023238660A1 (ja) * 2022-06-10 2023-12-14 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2938845B1 (ja) * 1998-03-13 1999-08-25 三菱電機株式会社 3次元cg実写映像融合装置
JPH11259672A (ja) * 1998-03-13 1999-09-24 Mitsubishi Electric Corp 3次元仮想空間表示装置
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
JP2004086508A (ja) 2002-08-26 2004-03-18 Alpine Electronics Inc 3次元形状データに基づく動画の表示制御方法及びナビゲーション装置
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
WO2011052064A1 (ja) * 2009-10-30 2011-05-05 キヤノン株式会社 情報処理装置および方法
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
CN111223037A (zh) * 2013-09-11 2020-06-02 索尼公司 图像处理设备及方法
EP3055763A1 (en) * 2013-10-07 2016-08-17 VID SCALE, Inc. User adaptive 3d video rendering and delivery
GB2520312A (en) * 2013-11-15 2015-05-20 Sony Corp A method, apparatus and system for image processing
JP6385139B2 (ja) * 2014-05-28 2018-09-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2015231114A (ja) * 2014-06-04 2015-12-21 日本電信電話株式会社 映像表示装置

Also Published As

Publication number Publication date
EP3550522A4 (en) 2020-07-08
EP3550522A1 (en) 2019-10-09
EP3550522B1 (en) 2025-01-22
KR102246010B1 (ko) 2021-04-29
JP2018092580A (ja) 2018-06-14
KR20190085087A (ko) 2019-07-17
CN110073414B (zh) 2023-09-19
CN110073414A (zh) 2019-07-30

Similar Documents

Publication Publication Date Title
JP6948171B2 (ja) 画像処理装置および画像処理方法、プログラム
WO2018100928A1 (ja) 画像処理装置および方法
US11750786B2 (en) Providing apparatus, providing method and computer readable storage medium for performing processing relating to a virtual viewpoint image
US10742951B2 (en) Image generation apparatus and method of generating virtual view-point image
JP5570284B2 (ja) 画像処理装置および方法
JP5562103B2 (ja) 画像処理装置および方法
WO2018123801A1 (ja) 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
JP7042571B2 (ja) 画像処理装置およびその制御方法、プログラム
EP2724343A1 (en) Video remixing system
US11825066B2 (en) Video reproduction apparatus, reproduction method, and program
JP6572368B2 (ja) 生成装置および生成方法、プログラム
JP7757974B2 (ja) 撮影デバイス、サーバ装置、および、3dデータ生成方法
JP7104504B2 (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP2015212876A (ja) 映像再生システム
JP7134636B2 (ja) 制御装置、制御方法及びプログラム
JP7190849B2 (ja) 画像生成装置、画像生成装置の制御方法及びプログラム
KR102139106B1 (ko) 타임 슬라이스 영상을 제공하는 장치 및 사용자 단말
CN114762355B (zh) 信息处理装置和方法、程序以及信息处理系统
JP2025017526A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2022019341A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210917

R151 Written notification of patent or utility model registration

Ref document number: 6948171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151