JP2019080183A - Image transmission device, image transmission method, and program - Google Patents
Image transmission device, image transmission method, and program Download PDFInfo
- Publication number
- JP2019080183A JP2019080183A JP2017206016A JP2017206016A JP2019080183A JP 2019080183 A JP2019080183 A JP 2019080183A JP 2017206016 A JP2017206016 A JP 2017206016A JP 2017206016 A JP2017206016 A JP 2017206016A JP 2019080183 A JP2019080183 A JP 2019080183A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual viewpoint
- camera
- captured
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】 仮想視点画像の生成のために必要な撮影画像を伝送するネットワークの伝送帯域の逼迫を低減することを目的とする。【解決手段】 複数の撮像装置が撮影した複数の撮影画像を用いて仮想視点画像を生成する画像処理システムにおいて、前記複数の撮影画像の少なくとも一部を、前記仮想視点画像を生成するために伝送する画像伝送装置は、前記複数の撮像装置のうちの少なくとも1台が撮影した撮影画像が前記仮想視点画像の生成に適しているか否かを判定し、前記仮想視点画像の生成に適していないと判定された撮影画像の伝送を制限する。【選択図】 図2PROBLEM TO BE SOLVED: To reduce tightness of a transmission band of a network for transmitting a captured image necessary for generating a virtual viewpoint image. In an image processing system that generates a virtual viewpoint image using a plurality of captured images captured by a plurality of imaging devices, at least a part of the plurality of captured images is transmitted to generate the virtual viewpoint image. The image transmission device that determines whether or not a captured image captured by at least one of the plurality of imaging devices is suitable for generating the virtual viewpoint image, and is not suitable for generating the virtual viewpoint image. Limit transmission of the determined captured image. [Selection] Figure 2
Description
本発明は、複数の撮像装置が撮影した複数の撮影画像を伝送する技術に関する。 The present invention relates to a technology for transmitting a plurality of captured images captured by a plurality of imaging devices.
複数の撮像装置を異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数の画像を用いて、撮像装置の設置位置から撮影した画像だけでなく、視点を任意に変更可能な仮想視点画像を生成する技術がある。
仮想視点画像は、サーバなどの画像処理部が複数のカメラにより撮影された画像を集約し、三次元モデルを生成し、レンダリングなどの処理を施すことで生成され、閲覧のためにユーザ端末に伝送される。
特許文献1には、同一の範囲を取り囲むように複数の撮像装置を配置して、その同一の範囲を撮影した画像を用いて、任意の指定に対応する仮想視点画像を生成、表示する技術が開示されている。
Multiple imaging devices can be installed at different positions, synchronized shooting with multiple viewpoints, and using multiple images obtained by the shooting, not only images taken from the installation position of the imaging device, but also viewpoints can be arbitrarily changed There is a technology to generate a simple virtual viewpoint image.
A virtual viewpoint image is generated by an image processing unit such as a server collecting images taken by a plurality of cameras, generating a three-dimensional model, performing processing such as rendering, and transmitting it to the user terminal for viewing Be done.
In Patent Document 1, there is a technology in which a plurality of imaging devices are arranged so as to surround the same range, and a virtual viewpoint image corresponding to any designation is generated and displayed using an image obtained by capturing the same range. It is disclosed.
複数の撮像装置により撮影された撮影画像を、仮想視点画像を生成するサーバにネットワークを介して伝送するシステムでは、ネットワークの伝送帯域が逼迫すると、複数カメラの撮影画像の少なくとも一部がサーバに伝送されない場合が生じ得る。ネットワークの伝送帯域が逼迫したことにより、仮想視点画像に生成に必要な撮影画像がサーバに伝送できないと、生成される仮想視点画像の一部に抜けが生じたり、画質が低くなったり、仮想視点画像の生成に時間がかかったりする恐れがある。さらに、仮想視点画像の生成に限らず、パノラマ画像など、複数の撮影画像を用いて画像を生成する場合においても、同様の課題が生じ得る。 In a system that transmits captured images captured by a plurality of imaging devices to a server that generates a virtual viewpoint image via a network, when the transmission bandwidth of the network becomes tight, at least a part of the captured images of multiple cameras is transmitted to the server In some cases, this may not happen. If the transmission band of the network is too tight to transmit the captured image required for generation to the virtual viewpoint image to the server, part of the generated virtual viewpoint image may be dropped, the image quality may be lowered, or the virtual viewpoint It may take time to generate an image. Furthermore, the same problem may occur in the case of generating an image using a plurality of photographed images such as a panoramic image as well as the generation of a virtual viewpoint image.
本発明は、上記の課題に鑑みてなされたものであり、仮想視点画像の生成のために必要な撮影画像を伝送するネットワークの伝送帯域の逼迫を低減することを目的とする。 The present invention has been made in view of the above problems, and has as its object to reduce the strain on the transmission band of a network that transmits a photographed image necessary for generating a virtual viewpoint image.
本発明は、複数の撮像装置が撮影した複数の撮影画像を用いて仮想視点画像を生成する画像処理システムにおいて、前記複数の撮影画像の少なくとも一部を、前記仮想視点画像を生成するために画像伝送装置であって、
前記複数の撮像装置のうちの少なくとも1台が撮影した撮影画像を取得する取得手段と、
前記取得手段により取得される前記撮影画像を伝送する伝送手段と、
前記取得手段により取得される前記撮影画像が前記仮想視点画像の生成に適しているか否かを判定する判定手段と、
前記判定手段により前記撮影画像が前記仮想視点画像の生成に適していないと判定された場合、当該撮影画像の前記伝送手段による伝送を制限する制御手段と、
を有することを特徴とする。
The present invention is an image processing system for generating a virtual viewpoint image using a plurality of captured images captured by a plurality of imaging devices, wherein at least a part of the plurality of captured images is generated to generate the virtual viewpoint image. A transmission device,
An acquisition unit configured to acquire a captured image captured by at least one of the plurality of imaging devices;
Transmission means for transmitting the photographed image acquired by the acquisition means;
A determination unit that determines whether the captured image acquired by the acquisition unit is suitable for generating the virtual viewpoint image;
A control unit that restricts transmission of the captured image by the transmission unit when it is determined by the determination unit that the captured image is not suitable for generating the virtual viewpoint image;
It is characterized by having.
本発明によれば、仮想視点画像の生成のために必要な撮影画像を伝送するネットワークの伝送帯域の逼迫を低減することができる。 According to the present invention, it is possible to reduce the tightness of the transmission band of the network transmitting the photographed image necessary for generating the virtual viewpoint image.
以下、図面を参照して実施形態を説明する。図1は、本実施形態の画像処理システムの概略の一例を示す図である。図1に示す画像処理システムは、例えば、競技等を実際に行うフィールドと、観客席を有するスタジアムやコンサートホールに設置される複数のカメラにより撮影された撮影画像を用いて仮想視点画像を生成するシステムである。画像処理システム100は、カメラシステム110a〜110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、及びエンドユーザ端末190を有する。
Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 is a diagram showing an example of an outline of an image processing system according to the present embodiment. The image processing system shown in FIG. 1, for example, generates a virtual viewpoint image using images taken by a plurality of cameras installed in a field having a competition and the like and a stadium or a concert hall having an audience seat. It is a system. The
コントローラ300は画像処理システム100を構成するそれぞれの構成要素に対してネットワーク300a、180a、180b、及び170a〜170yを通じて動作状態の管理及びパラメータ設定制御などを行う情報処理装置である。ここで、ネットワークはEthernet(登録商標)であるIEEE標準準拠のGbE(Gigabit Ethernet)や10GbEでもよいし、インターコネクトInfiniband、産業用Ethernet等を組合せて構成されてもよい。また、これらに限定されず、無線ネットワークなどの他の種別のネットワークであってもよい。また、各装置間の接続形態も図1に図示したものに限定されず、例えば、インターネットなどのネットワークを介して各装置間が接続される形態であってもよい。
A
カメラシステム110a〜110zは、撮像装置であるカメラが撮影した画像を伝送するシステムである。カメラシステム110a〜110zは、26セットの画像をカメラシステム110zから画像コンピューティングサーバ200へ送信する動作を説明する。
The
本実施形態において、特別な説明がない場合は、カメラシステム110aからカメラシステム110zまでの26セットのシステムを区別せずカメラシステム110と記載する。各カメラシステム110内の装置についても同様に、特別な説明がない場合は区別せず、カメラ112、センサ114、及びカメラアダプタ120と記載する。なお、カメラシステムの台数として26セットと記載しているが、あくまでも一例であり、台数をこれに限定するものではない。なお、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム100は、静止画及び動画の何れについても処理可能である。
In the present embodiment, 26 sets of systems from the
カメラシステム110a〜110zは、それぞれ1台ずつのカメラ112a〜112zを有する。即ち、画像処理システム100は、撮影対象を複数の方向から撮影するための複数のカメラを有する。複数のカメラシステム110同士はデイジーチェーンにより接続されてもよい。この接続形態により、撮影画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる。
The
なお、これに限らず、接続形態として、各カメラシステム110a〜110zがスイッチングハブ180に接続されて、スイッチングハブ180を経由してカメラシステム110間のデータ送受信を行うスター型のネットワーク構成としてもよい。
However, the present invention is not limited to this. As a connection form, each
また、図1では、デイジーチェーンとなるようカメラシステム110a〜110zの全てがカスケード接続されている構成を示したがこれに限定するものではない。例えば、複数のカメラシステム110をいくつかのグループに分割して、分割したグループ単位でカメラシステム110間をデイジーチェーン接続してもよい。そして、分割単位の終端となるカメラアダプタ120がスイッチングハブに接続されて画像コンピューティングサーバ200へ画像の入力を行うようにしてもよい。このような構成は、スタジアムにおいてとくに有効である。例えば、スタジアムが複数階で構成され、フロア毎にカメラシステム110を配備する場合が考えられる。この場合に、フロア毎、あるいはスタジアムの半周毎に画像コンピューティングサーバ200への入力を行うことができ、全カメラシステム110を1つのデイジーチェーンで接続する配線が困難な場所でも設置の簡便化及びシステムの柔軟化を図ることができる。
Further, FIG. 1 shows a configuration in which all of the
また、デイジーチェーン接続されて画像コンピューティングサーバ200へ画像入力を行うカメラアダプタ120が1つであるか2つ以上であるかに応じて、画像コンピューティングサーバ200での画像処理の制御が切り替えられる。すなわち、カメラシステム110が複数のグループに分割されているかどうかに応じて制御が切り替えられる。画像入力を行うカメラアダプタ120が1つの場合は、デイジーチェーン接続で画像伝送を行いながら競技場全周画像が生成されるため、画像コンピューティングサーバ200において全周の画像データが揃うタイミングは同期がとられている。すなわち、カメラシステム110がグループに分割されていなければ、同期はとれる。
Further, control of image processing in the
しかし、画像入力を行うカメラアダプタ120が複数になる(カメラシステム110がグループに分割される)場合は、それぞれのデイジーチェーンのレーン(経路)によって遅延が異なる場合が考えられる。そのため、画像コンピューティングサーバ200において全周の画像データが揃うまで待って同期をとる同期制御によって、画像データの集結をチェックしながら後段の画像処理を行う必要があり得る。
However, when there are a plurality of
カメラシステム110aはカメラ112a、センサ114a、及びカメラアダプタ120aを有する。なお、この構成に限定するものではなく、他の構成を有していてもよい。また、カメラシステム110aは、少なくとも1台のカメラアダプタ120aと、1台のカメラ112aを有する構成であってもよい。また例えば、カメラシステム110aは1台のカメラアダプタ120aと、複数のカメラ112aで構成されてもよいし、1台のカメラ112aと複数のカメラアダプタ120aで構成されてもよい。また、カメラシステム110aは、1台のカメラ112aのみで、カメラ112aが後述するカメラアダプタ120aの動作を行ってもよい。
The
画像処理システム100内の複数のカメラ112と複数のカメラアダプタ120はN対M(NとMは共に1以上の整数)で対応する。また、カメラシステム110は、カメラ112、及びカメラアダプタ120以外の装置を含んでいてもよい。また、カメラ112とカメラアダプタ120が一体となって構成されていてもよい。さらに、カメラアダプタ120の機能の少なくとも一部を画像コンピューティングサーバ200が有していてもよい。カメラシステム110a〜110zについては、カメラシステム110aと同様の構成であってもよい。なお、カメラシステム110は其々同じ構成に限定されるものではなく、其々のカメラシステム110が異なる構成でもよい。
The plurality of
カメラアダプタ120は画像を伝送する画像伝送装置である。例えば、カメラ112aにて撮影された画像は、カメラアダプタ120aにおいて後述の画像処理が施された後、デイジーチェーンのネットワーク170を通してカメラシステム110bのカメラアダプタ120bに伝送される。同様にカメラシステム110bでは、カメラ112b撮影された画像を、カメラシステム110aから取得した画像と合わせてカメラシステム110cに伝送する。
The
前述した動作を続けることにより、カメラシステム110a〜110zが取得した撮影画像は、カメラシステム110zからネットワーク180bを用いてスイッチングハブ180に伝わり、その後、画像コンピューティングサーバ200へ伝送される。このように本実施形態のシステムでは、あるカメラシステム110のカメラ112が撮影した画像(以後、自カメラ画像と呼ぶ)と、上流カメラシステム110から送られてきた画像(以後、他カメラ画像と呼ぶ)を下流カメラシステム110に送出する。このようなルーチン処理を各カメラシステム110で繰り返しながらカメラシステム110a〜110zが撮影した画像は、画像コンピューティングサーバ200に到達することになる。このような、デイジーチェーン接続による分散システムでは、下流に行くにしたがって伝送する撮影画像が増え、伝送データ量が増えるため、特に下流では伝送帯域が逼迫する恐れが生じうる。本実施形態では、伝送帯域をオーバーする前に適切にデータを削減する。
By continuing the operation described above, the photographed images acquired by the
センサ114は、カメラシステム110の撮影状況に関する情報をセンスするセンサである。センサ114は、例えば、赤外線センサ、ジャイロセンサ、加速度センサ、ミリ波センサ、GPSまたは電子コンパスであり得る。センサ114は、これらのセンサのうちの一つでもよいし、これらから複数個のセンサを組み合わせたものであってもよい。
The
タイムサーバ290は時刻及び同期信号を配信する機能を有し、スイッチングハブ180を介してカメラシステム110a〜110zに時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ120a〜120zは、カメラ112a〜112zを時刻と同期信号をもとにGenlockさせ撮影画像の時刻同期を行う。即ち、タイムサーバ290は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像処理システム100は同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。なお、本実施形態ではタイムサーバ290が複数のカメラ112の時刻同期を管理するものとするが、これに限らず、時刻同期のための処理を各カメラ112又は各カメラアダプタ120が独立して行ってもよい。
The
画像コンピューティングサーバ200は、カメラシステム110zから取得したデータの処理を行う。画像コンピューティングサーバ200は、カメラシステム110a〜110zから取得した複数の撮影画像に基づいて、三次元モデルを生成し、レンダリングなどの処理を施すことで仮想視点画像を生成する。仮想視点画像を生成する方式として、モデルベースレンダリング(MODEL−BASED RENDERING:MBR)を用いてもよい。MBRとは、被写体を複数の方向から撮像した複数の撮影画像に基づいて生成される三次元モデルを用いて仮想視点画像を生成する方式である。具体的にMBRは、視体積交差法、MULTI−VIEW−STEREO(MVS)などの三次元形状復元手法により得られた対象シーンの三次元形状(モデル)を利用し、仮想視点からのシーンの見えを画像として生成する技術である。また、仮想視点画像を生成する方法は、MBRに限られず、例えば、イメージベースレンダリングを用いる方式が挙げられる。イメージベースレンダリングは、モデリング(幾何学図形を使用して物体の形状を作成する過程)をしないで、複数視点の撮影画像から仮想視点画像を生成するレンダリング方法である。画像コンピューティングサーバ200は、カメラシステム110zから取得した画像に対して、コントローラ300またはエンドユーザ端末190から視点の指定を受け付け、受け付けられた視点に基づいて、レンダリング処理を行って仮想視点画像を生成する。
The
画像コンピューティングサーバ200は、レンダリング処理された画像を、エンドユーザ端末190に送信する。エンドユーザ端末190を操作するユーザは視点の指定に応じた画像閲覧が出来る。すなわち、画像コンピューティングサーバ200は、複数のカメラ112により撮影された撮影画像(複数視点画像)と視点情報とに基づく仮想視点画像を生成する。より具体的には、画像コンピューティングサーバ200は、例えば複数のカメラアダプタ120により複数のカメラ112による撮影画像から抽出された所定領域の画像データと、ユーザ操作により指定された視点に基づいて、仮想視点画像を生成する。そして画像コンピューティングサーバ200は、生成した仮想視点画像をエンドユーザ端末190に提供する。
The
画像コンピューティングサーバ200は、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を生成する。仮想視点画像は、指定された視点における見えを表す画像であるとも言える。仮想的な視点(仮想視点)は、ユーザにより指定されてもよいし、画像解析の結果等に基づいて自動的に指定されてもよい。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。
The
また、画像コンピューティングサーバ200は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG−DASHプロトコルを使ってエンドユーザ端末190へ送信してもよい。また、仮想視点画像は、非圧縮でエンドユーザ端末190へ送信されてもよい。とくに圧縮符号化を行う前者はエンドユーザ端末190としてスマートフォンやタブレットを想定しており、後者は非圧縮画像を表示可能なディスプレイを想定している。すなわち、エンドユーザ端末190の種別に応じて画像フォーマットが切り替え可能であることを明記しておく。また、画像の送信プロトコルはMPEG−DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いてもよい。
In addition, the
なお、画像コンピューティングサーバ200が、カメラシステム110a〜110zが生成した画像データやそれらのデータのメタ情報を共通スキーマ及びデータ型に変換してもよい。これにより、カメラシステム110a〜110zのカメラ112が他機種のカメラに変化しても、コントローラ300が適切に動作しない虞を低減できる。なお、コントローラ300は、画像コンピューティングサーバ200を介さず、直接カメラシステム110a〜110zから画像を取得してもよい。
The
なお、画像コンピューティングサーバ200の構成はこれに限らない。画像コンピューティングサーバ200の機能の少なくとも一部をエンドユーザ端末190やコントローラ300が有していてもよい。
The configuration of the
エンドユーザ端末190は、レンダリング処理された仮想視点画像を画像コンピューティングサーバ200から取得し、取得した仮想視点画像を表示する情報処理装置である。
The
以上説明したように、画像処理システム100においては、被写体を複数の方向から撮影するための複数のカメラ112による撮影に基づく画像データに基づいて、画像コンピューティングサーバ200により仮想視点画像が生成される。なお、本実施形態における画像処理システム100は、上記で説明した物理的な構成に限定される訳ではなく、論理的に構成されていてもよい。
As described above, in the
図9は、画像処理システム100の各装置のハードウェアの構成の一例を示す図である。装置1200は、CPU1201、ROM1202、RAM1203、補助記憶装置1204、表示部1205、操作部1206、通信部1207、及びバス1208を有する。
FIG. 9 is a diagram illustrating an example of a hardware configuration of each device of the
CPU1201は、ROM1202やRAM1203に格納されているコンピュータプログラムやデータを用いて装置1200の全体を制御する。ROM1202は、変更を必要としないプログラムやパラメータを格納する。RAM1203は、補助記憶装置1204から供給されるプログラムやデータ、及び通信部1207を介して外部から供給されるデータなどを一時記憶する。補助記憶装置1204は、例えばハードディスクドライブ等で構成され、静止画や動画などのコンテンツデータを記憶する。
The
表示部1205は、例えば液晶ディスプレイ等で構成され、ユーザが装置1200を操作するためのGUI(Graphical User Interface)などを表示する。操作部1206は、例えばキーボードやマウス等で構成され、ユーザによる操作を受けて各種の指示をCPU1201に入力する。通信部1207は、外部の装置と通信を行う。例えば、装置1200が外部の装置と有線で接続される場合には、LANケーブル等が通信部1207に接続される。なお、装置1200が外部の装置と無線通信する機能を有する場合、通信部1207はアンテナを備える。バス1208は、装置1200の各部を繋いで情報を伝達する。
The display unit 1205 is configured of, for example, a liquid crystal display, and displays a graphical user interface (GUI) or the like for the user to operate the
本実施形態では表示部1205と操作部1206は装置1200の内部に存在するが、装置1200は表示部1205及び操作部1206の少なくとも一方を備えていなくてもよい。また、表示部1205及び操作部1206の少なくとも一方が装置1200の外部に別の装置として存在していて、CPU1201が、表示部1205を制御する表示制御部、及び操作部1206を制御する操作制御部として動作してもよい。
In the present embodiment, the display unit 1205 and the
なお、CPU1201は、単数もしくは複数のCPUにより構成されていてもよいし、マルチコアのCPUであってもよい。また、CPU1201の代わりに、または、CPU1201と共に、ASIC、FPGAまたはGPUなどのハードウェアを有していてもよい。この場合、ASIC、FPGAまたはGPUなどのハードウェアが、CPU1201が行うべき処理の一部または全てを行ってもよい。また、装置1200の処理のうち一部をハードウェアで行い、別の一部の処理を、CPUを用いたソフトウェア処理によって実現するようにしてもよい。なお、画像処理システム100のすべての装置が同様の構成である必要はなく、装置に応じて、一部の構成を有さなくてもよいし、他の構成を有してもよい。
The
次に本実施形態におけるカメラアダプタ120の機能ブロックについて図2を用いて説明する。図2に示すカメラアダプタ120の機能ブロックは、カメラアダプタ120のCPU1201が、ROM1202やRAM1203に格納されているコンピュータプログラムを実行し、情報の演算及び各ハードウェアを制御することで実現される。なお、図2に示す各構成の一部またはすべてを、専用のハードウェアにより実現されてもよい。専用のハードウェアは、例えば、ASIC、FPGAまたはGPU等である。
Next, functional blocks of the
カメラ制御部12011は、カメラ112と接続し、カメラ112の制御、撮影画像取得、同期信号提供、及び時刻設定などを行う機能と、カメラ112で撮影した画像を取得する機能を有している。カメラ112の制御には、例えば撮影パラメータ(絞り、シャッタースピード、感度、画素数、色深度、フレームレート、及びホワイトバランスの設定など)の設定及び参照が含まれてもよい。また、カメラ112の制御には、カメラ112の状態(撮影中、停止中、同期中、及びエラーなど)の取得、撮影の開始及び停止や、ピント調整などが含まれてもよい。なお、本実施形態ではカメラ112を介してピント調整を行っているが、取り外し可能なレンズがカメラ112に装着されている場合は、カメラアダプタ120がレンズに接続し、直接レンズの調整を行ってもよい。また、カメラアダプタ120がカメラ112を介してズーム等のレンズ調整を行ってもよい。同期信号提供は、時刻同期制御部12038がタイムサーバ290と同期した時刻を利用し、撮影タイミング(制御クロック)をカメラ112に提供することで行われる。時刻設定は、時刻同期制御部12038がタイムサーバ290と同期した時刻を例えばSMPTE12Mのフォーマットに準拠したタイムコードで提供することで行われてもよい。これにより、カメラ112から受取る画像データに提供したタイムコードが付与されることになる。なおタイムコードのフォーマットはSMPTE12Mに限定されるわけではなく、他のフォーマットであってもよい。また、カメラ制御部12011は、カメラ112に対するタイムコードの提供はせず、カメラ112から受取った画像データに自身がタイムコードを付与してもよい。
The
センサ制御部12012は、センサ114と接続し、センサ114がセンシングした結果を示すセンサ情報を取得する機能を有する。例えば、センサ114としてジャイロセンサが利用される場合は、振動を表す情報を取得することができる。センサ制御部12012で取得したセンサ情報は、画像補正部12013に入力される。なお、カメラシステム110のセンサはセンサ114に限定するわけではなく、カメラアダプタ120またはカメラ112に内蔵されたセンサであってもよい。
The
画像補正部12013は、センサ制御部12012で取得したセンサ情報を基に、カメラ制御部12011から取得した画像データの補正を行い、補正後の画像データを画像処理部12021に出力する。センサ114が、ジャイロセンサまたは加速度センサなどであり、センサ情報が振動やぶれを表す情報である場合は、画像補正部12013では画像データのぶれ補正を行い、ぶれ補正量をメタ情報生成部12022に出力する。また、センサ114が、赤外線センサまたはミリ波センサなどであり、センサ情報が撮影領域の遮蔽物体の有無を表す情報である場合は、画像補正部12013では、画像中の遮蔽物体の領域検知を行う。そして、画像補正部12013は、遮蔽物体の領域の大きさをメタ情報生成部12022に出力する。また、センサ114が、電子コンパスなどであり、センサ情報が撮影領域の変更を表す情報である場合は、画像補正部12013では撮影領域の変更度合いを検出し、その度合いをメタ情報生成部12022に出力する。
The
画像処理部12021は、カメラ112が撮影した画像データに対して、エッジ処理、ノイズ除去、色変換等の処理を行う。なお、画像処理部12021は、前景背景分離処理を行ってもよい。前景背景分離処理では、画像からボールや選手などの特定の人物である所定のオブジェクトの領域を前景領域として抽出し、画像から前景領域を抽出した残りの画像を背景領域としてもよい。カメラアダプタ120は、前景領域を示す前景画像データ、背景領域を示す背景画像データと分けて、それぞれ別個に通信してもよい。
An
メタ情報生成部12022は、画像を撮影した時のタイムコードまたはシーケンス番号、データ種別、及びカメラ112の個体を示す識別子、画像補正部12013から取得したぶれ補正量などをセンサ情報に基づく情報を画像データのメタ情報として生成する。なお、メタ情報生成部12022が生成する情報は、これらのうちの一部であってもよいし、他の情報であってもよい。例えば、メタ情報生成部12022は、他のカメラアダプタ120の後述する不適切画像判定部12034による判定処理に必要な情報を生成するようにしてもよい。また、例えば、メタ情報生成部12022は、不適切画像判定部12034の判定結果を画像データのメタ情報として生成してもよい。また、例えば、メタ情報生成部12022は、センサ制御部12012により取得したセンサ情報を画像データのメタ情報として生成してもよい。
The meta
データ量取得部12031は、出力対象のデータであり、画像処理部12021で処理した画像のデータ量を取得する。出力データ量算出部12032は、データ量取得部12031で取得した自カメラ画像のデータ量と、データ量計測部12036で取得した他カメラ画像のデータ量とを加算することにより、当該カメラアダプタ120が出力すべきデータ量を算出する。即ち、カメラアダプタ120は、自システムで取得した撮影画像及び他のカメラシステムから取得した撮影画像のデータ量を取得する。出力データ量判定部12033は、出力データ量算出部12032で算出したデータ量と所定の伝送帯域制約量を比較し、伝送可能性を確認する。具体的には、データ送信部12042へ出力するデータ量が予め指定された出力可能データ量の閾値を超えるか否かを判断する。また、出力データ量判定部12033は、ネットワーク170の伝送帯域の使用状況に応じて、出力データ量の閾値を動的に変更してもよい。
The data amount
不適切画像判定部12034は、自システムで取得した撮影画像及び他のカメラシステムから取得した撮影画像のうち、仮想想視点画像の生成において不適切な画像を判定する。不適切画像判定部12034は、例えば、ぶれ量が大きい撮影画像を仮想想視点画像の生成において不適切な画像を判定する。ぶれ量が大きい撮影画像を仮想視点画像の生成に用いると、仮想視点画像も同様にぶれが生じ、画質が劣化するためである。また、不適切画像判定部12034は、例えば、遮蔽物体が写る撮影画像を仮想想視点画像の生成において不適切な画像を判定する。遮蔽物体が写る撮影画像を仮想視点画像の生成に用いると、遮蔽物体が写る領域が仮想視点画像においてマッピングされると、仮想視点の位置からは本来見えない遮蔽物体が仮想視点画像に写ってしまうためである。また、例えば、不適切画像判定部12034は、カメラ112の撮影領域がいたずらなどによって意図せず変更されていることを検出した場合、仮想想視点画像の生成において不適切な画像を判定する。撮影領域がいたずらなどによって意図せず変更されている撮影画像が仮想視点画像においてマッピングされると、撮影領域がずれているため、適切な位置にマッピングできず、画質が劣化するためである。不適切画像判定部12034は、これらのうちの一部のみを判定してもよいし、仮想視点画像の生成において不適切な画像を他の基準を用いて判定してもよい。
The inappropriate image determination unit 12034 determines an image that is inappropriate for generation of a virtual fantasy image, from among the captured image acquired by the own system and the captured images acquired from another camera system. The inappropriate image determining unit 12034 determines, for example, an image that is inappropriate for generation of a virtual fantasy image, for a captured image with a large amount of blur. When a photographed image with a large amount of blurring is used to generate a virtual viewpoint image, blurring occurs in the virtual viewpoint image as well, and the image quality is degraded. In addition, the inappropriate image determination unit 12034 determines, for example, an image that is inappropriate in the generation of a virtual fantasy image, in which a captured image in which a shielded object is captured is generated. When a photographed image in which an occluded object is captured is used to generate a virtual viewpoint image, when the area in which the occluded object is imaged is mapped in the virtual viewpoint image, the occluded object that can not be seen from the virtual viewpoint is reflected in the virtual viewpoint image It is for. Also, for example, when detecting that the imaging area of the
不適切画像判定部12034は、取得した撮影画像のメタ情報に基づいて、当該画像が仮想視点画像の生成において不適切か否かを判定してもよい。不適切画像判定部12034は、メタ情報生成部12022で生成された自カメラ画像のメタ情報と、メタ情報抽出部12037で抽出された他カメラ画像のメタ情報を取得し、適切でない画像を判定してもよい。また、例えば、不適切画像判定部12034は、メタ情報に含まれるカメラのぶれ補正量を閾値と比較し、ぶれ補正量の大きな画像データを不適切な画像として判定してもよい。また、不適切画像判定部12034は、自カメラ画像及び他カメラ画像のうちぶれ量がより大きいものを仮想視点画像の生成において不適切と判定してもよい。また、不適切画像判定部12034は、撮影画像の画像処理結果に基づいて、当該画像が仮想視点画像の生成において不適切か否かを判定してもよい。例えば、不適切画像判定部12034は、撮影画像における遮蔽物の有無を画像処理で検出し、遮蔽物が検出された撮影画像を仮想視点画像の生成において不適切と判定してもよい。また、例えば、不適切画像判定部12034は、同一のカメラ112で異なる時間で撮影された複数の撮影画像を比較し、撮影範囲や撮影領域が変化していることが画像処理により検出してもよい。この場合、不適切画像判定部12034は、撮影範囲が変化後の撮影画像を仮想視点画像の生成において不適切と判定してもよい。
The inappropriate image determination unit 12034 may determine whether the image is inappropriate for generation of the virtual viewpoint image based on the acquired meta information of the captured image. The inappropriate image determination unit 12034 acquires the meta information of the self-camera image generated by the meta
不適切画像判定部12034は、センサ114のセンシング結果に基づいて、仮想視点画像の生成において不適切な画像を判定してもよい。センサ114がジャイロセンサまたは加速度センサである場合における不適切画像判定部12034の判定の一例について説明する。不適切画像判定部12034は、これらのセンシング結果が、カメラ112が撮影を行う際に振動していることを示す場合、当該カメラ112に撮影された画像を、仮想視点画像の生成において不適切な画像を判定してもよい。センサ114が赤外線センサまたはミリ波センサである場合についての不適切画像判定部12034による判定についての一例を説明する。これらのセンシング結果が、所定の範囲(例えば、カメラ112から5m)の撮影範囲を遮蔽する物体が侵入している場合、不適切画像判定部12034は、当該カメラ112に撮影された画像を、仮想視点画像の生成において不適切な画像を判定してもよい。センサ114が電子コンパスである場合についての不適切画像判定部12034による判定についての一例を説明する。電子コンパスのセンシング結果がカメラ112の撮影方向が変化したことを示す場合、不適切画像判定部12034は、当該カメラ112に撮影された画像を、仮想視点画像の生成において不適切な画像を判定してもよい。センサ114がGPSである場合についての不適切画像判定部12034による判定についての一例を説明する。GPSのセンシング結果がカメラ112の位置が変動したがことを示す場合、不適切画像判定部12034は、当該カメラ112に撮影された画像を、仮想視点画像の生成において不適切な画像を判定してもよい。
The inappropriate image determination unit 12034 may determine an inappropriate image in generation of the virtual viewpoint image based on the sensing result of the
画像伝送処理部12035は、画像データを、データ送信部12042を介して他のカメラアダプタ120(他のカメラシステム110)または画像コンピューティングサーバ200へ送信する制御を行う。画像伝送処理部12035は、画像データ及び各データのメタ情報が含まれるメッセージを作成し、作成したメッセージを送信させる。データ量計測部12036は、データ受信部12041で受信した他カメラ画像のデータ量を計測する。メタ情報抽出部12037は、データ受信部12041で受信した他カメラ画像のメッセージからメタ情報を抽出する。
The image
時刻同期制御部12038は、タイムサーバ290と時刻同期に係わる処理を行う。データ受信部12041及びデータ送信部12042は、ネットワーク170、180a、180b、291、300aを介し他のカメラアダプタ120、画像コンピューティングサーバ200、タイムサーバ290、及びコントローラ300とデータ通信を行う。例えばデータ送信部12042は、画像処理部12021により処理された、カメラ112が撮影した撮影画像を、次のカメラアダプタ120に対して出力する。各カメラアダプタ120が画像を出力することで、複数の視点から撮影された画像に基づいて仮想視点画像が生成される。時刻制御部12043は、タイムサーバ290との間で送受信したデータのタイムスタンプを保存したり、タイムサーバ290と時刻同期を行ったりする。
The time
続いて上述の構成を有する画像処理システム100の動作について説明する。まず、カメラシステム110における撮影処理について図3を用いて説明する。図3は、撮影処理のシーケンスを示す図である。
Subsequently, the operation of the
まず、タイムサーバ290は例えばGPS2201などと時刻同期を行い、タイムサーバ内で管理される時刻の設定を行う(06801)。なお、タイムサーバ290の時刻設定は、GPSを用いた方法に限定されるものではなく、NTP(Network Time Protocol)など他の方法で時刻を設定してもよい。
First, the
次にカメラアダプタ120は、タイムサーバ290との間で通信を行い、カメラアダプタ120内で管理される時刻を補正しタイムサーバ290と時刻同期を行う(06802)。カメラアダプタ120は、タイムサーバ290と同期した時刻に基づいて、Genlock信号や3値同期信号等の同期撮影信号及びタイムコード信号を、カメラ112に対して提供する。カメラアダプタ120は、カメラ112の撮影フレームレート(例えば、60fps)に同期してカメラ112に対して同期撮影信号及びタイムコード信号の提供を開始する(06803)。なお提供される情報はタイムコードに限定されるものではなく、撮影フレームを識別できる識別子であれば他の情報でもよい。
Next, the
次に、カメラアダプタ120はカメラ112に対して撮影開始指示を行う(06804)。カメラ112は撮影開始指示を受けると、Genlock信号に同期して撮影を行う(06805)。次に、カメラ112は撮影した画像をカメラアダプタ120へ送信する(06806)。カメラ112が撮影を停止するまでGenlock信号に同期した撮影が行われる。
Next, the
また、カメラアダプタ120は、センサ114がセンシング(06807)したセンサ情報を取得する(06808)。なお、カメラアダプタ120は、Genlock信号や3値同期信号等の同期撮影信号及びタイムコード信号をカメラ112の撮影フレームレートに同期してセンサ114に送信してもよい。そして、センサ114は、同期撮影信号またはタイムコード信号に基づいてセンシングを行ってもよい。また、カメラアダプタ120は、撮影時刻とセンシング時刻とが近い時刻にセンシングされたセンサ114からのセンシング情報を画像データに関連付ける構成としてもよい。
Further, the
続いて、カメラアダプタ120間で送受信される画像データを伝送するメッセージの一例を図4に示す。図4において、401は、このメッセージに含まれる画像を撮影したカメラ112を識別するカメラ番号であり、それぞれのカメラ112a〜112zの識別番号が入力される。図4において、カメラ番号401には、カメラ112aを示す番号112aが設定されており、後述する画像データ404を撮影したのは、カメラ112aであることを示している。
Subsequently, an example of a message for transmitting image data transmitted and received between the
402は画像データ404のタイムコードであり、画像データ404が撮影された時刻を示す。403は、センサ114がセンシングにより取得したセンス情報に基づく情報である。図4では、センス情報の基づく情報403に、画像補正部12013で補正したデータの補正量を格納している例を示す。ぶれ補正量を0〜9の10段階で表してもよい。この場合、ぶれ補正量0はカメラ112に振動がなくぶれ補正を行っていないことを表し、1〜9の値は数字が大きくなるにしたがってぶれ補正量が大きいことを表すようにしてよい。なお、センス情報に基づく情報403に含まれる情報は、ぶれ補正量に限定されない。例えば、センス情報に基づく情報403には、センサ114から取得したセンサ情報そのものが入力されてもよい。404は画像データである。
上記401〜404のデータのうち、画像データ以外の401〜403をメタ情報と呼ぶ。なお、図4で示すメッセージは一例であり、他の情報が含まれていてもよいし、401〜404のデータのうちの一部がなくてもよい。例えば、メッセージに不適切画像判定部12034の判定結果を画像データのメタ情報として付加されてもよい。また、401〜403などのメタ情報と画像データ404とが別のメッセージとして通信されてもよい。
Among the
次に、カメラアダプタ120の出力処理の流れについて図5のフローチャートを用いて説明する。なお、図5のフローチャートは、例えば、カメラアダプタ120のデータの出力周期ごとに開始されてもよい。カメラアダプタ120は、カメラ112の撮影フレームレートごとにデータを出力してもよく、図5のフローチャートに示す出力処理を開始してもよい。例えば、カメラ112が、60fpsで撮影を行う場合、図5のフローチャートにより示される処理は、1/60秒ごとに開始されてもよい。また、図5のフローチャートにより示される処理は、自システムのカメラ112が撮影した画像を示す画像データを取得するごとに開始されてもよい。後述するフローチャートに示す処理は、カメラアダプタ120のCPU1201がプログラムを実行することで情報の演算や各ハードウェアを制御することで実現される。なお、後述するフローチャートの少なくとも一部のステップが専用のハードウェアにより実行されてもよい。専用のハードウェアは、例えば、ASIC、FPGAまたはGPUである。
Next, the flow of the output process of the
カメラアダプタ120は、自システムのカメラ112により撮影された画像を取得し、取得した画像のメタ情報をメタ情報生成部12022により生成する(S501)。メタ情報生成部12022は、画像を撮影した時のタイムコードまたはシーケンス番号、データ種別、及びカメラ112の個体を示す識別子、画像補正部12013から取得したぶれ補正量などを、画像データのメタ情報として生成する。
The
カメラアダプタ120は、自システムのカメラ112により撮影された画像を示す画像データのデータ量を取得する(S502)。S502の処理では、画像処理部12021の処理結果である画像データのデータ量を取得してもよいし、圧縮処理を施した後の画像データのデータ量を取得してもよい。また、S502の処理では、カメラアダプタ120は、自システムのカメラ112により撮影された画像に前景背景分離処理を施した結果である前景画像を示す画像データ及び/または背景画像を示す画像データのデータ量を取得してもよい。
The
カメラアダプタ120は、他のカメラシステム110のカメラ112が撮影した画像を示す画像データが含まれるメッセージを上流において隣接するカメラアダプタ120から受信する。そして、カメラアダプタ120は、受信したメッセージのデータ量を計測する(S503)。即ち、カメラアダプタ120は、データ受信部12041を介して上流カメラアダプタ120から取得したメッセージのデータ量をデータ量計測部12036により計測する。
The
次に、カメラアダプタ120は、データ量取得部12031で取得したデータ量と、データ量計測部12036で計測したデータ量を基に、下流カメラアダプタ120dに出力するデータ量を出力データ量算出部12032により算出する(S504)。
Next, the
次に、カメラアダプタ120は、S504において算出された出力データ量が出力可能データ量を超えるか否かを判定する(S505)。S505において、カメラアダプタ120の出力データ量判定部12033は、出力データ量と伝送帯域制約量を比較し、出力データ量が伝送帯域制約量を超えるか否かを判定する。具体的には、カメラアダプタ120は、データ送信部12042へ出力するデータ量が予め指定された出力データ量の閾値を超えるか否かを判断する。例えば、カメラシステム110zが画像コンピューティングサーバ200にデータを伝送するためのネットワークの実効速度100Gbpsであるとする。また、カメラ112a〜zが撮影を行う撮影フレームレートを100fpsであるとし、1/100秒ごとに各カメラシステム110a〜zは出力処理を行うものとする。カメラシステム110zの伝送において、ネットワークで伝送可能なデータ量を超えないようにするためには、カメラシステム110zは、出力処理ごとにデータ量を1Gbit未満にする必要がある。したがって、26台の各カメラアダプタ120a〜zは、自カメラデータのデータ量が1/26Gbitであれば、カメラシステム110zの伝送において、ネットワークが伝送可能なデータ量を超えない。即ち、この例において、カメラアダプタ120は、S505において、出力データ量が、(1+n)/26Gbit(nは、上流のカメラシステムの数)を超えるか否を判定してもよい。
Next, the
S505において、出力データ量が閾値である出力可能データ量を超えないと判断した場合(S505のNO)、カメラアダプタ120は、通常伝送を行う(S506)。S506では、カメラアダプタ120は、S501で取得した自カメラ画像データ及びS503で取得した他カメラ画像データのすべてを下流の他のカメラアダプタに送信する。
If it is determined in S505 that the amount of output data does not exceed the amount of data that can be output, which is a threshold (NO in S505), the
S505において、出力データ量が閾値である出力可能データ量を超えると判断した場合(S505のYES)、カメラアダプタ120は、データ量を削減して画像データの伝送を行う(S507)。
If it is determined in S505 that the amount of output data exceeds the amount of data that can be output that is a threshold (YES in S505), the
データ削減伝送処理(S507)について、図7のフローチャートを参照して詳細に説明する。カメラアダプタ120は、S501において生成した自カメラ画像データのメタ情報を取得する(S701)。カメラアダプタ120は、S503において取得した他カメラ画像データのメタ情報を抽出する(S702)。
The data reduction transmission process (S507) will be described in detail with reference to the flowchart of FIG. The
カメラアダプタ120の不適切画像判定部12034は、S701において取得した自カメラ画像及びS702において取得した他カメラ画像のうち、仮想視点画像の生成に用いるのに不適切な画像を判定する。カメラアダプタ120は、取得した自カメラ画像及び他カメラ画像の撮影状況を判定し、仮想視点画像の画質が劣化し得る状況で撮影された画像を判定してもよい。また、カメラアダプタ120の不適切画像判定部12034は、自カメラ画像と他カメラ画像それぞれに関連づいたセンサ情報に基づいて、仮想視点画像の生成に用いるのに不適切な画像を判定してもよい。また、カメラアダプタ120の不適切画像判定部12034は、S701において取得した自カメラ画像データのメタ情報とS702において取得した他カメラ画像データのメタ情報とに基づいて、仮想視点画像の生成に用いるのに不適切な画像を判定してもよい。そして、カメラアダプタ120は、仮想視点画像を生成するために最も不適切な画像を示す画像データを出力対象から外し、当該画像データを削除することで、当該撮影画像のネットワークへの伝送を制限する(S703)。
The inappropriate image determination unit 12034 of the
カメラアダプタ120は、S703で削減後の出力データ量を再度算出し(S704)、S704で算出した出力データ量が出力可能なデータ量を超えるか否かを判定する(S705)。
The
S705において、出力データ量が閾値である出力可能データ量を超えないと判断した場合(S705のNO)、カメラアダプタ120は、出力の対象となった画像データを下流の他のカメラアダプタに送信する(S706)。一方、S705において、出力データ量が閾値である出力可能データ量を超えると判断した場合(S505のYES)、カメラアダプタ120は、再度S703からの処理を行う。
If it is determined in S 705 that the output data amount does not exceed the threshold that can be output, which is the threshold (NO in S 705), the
通常伝送(S506)時の、カメラアダプタ120間のデータの流れについて図6を用いて説明する。
A flow of data between
図6において、カメラアダプタ120aは、自カメラ画像データである、カメラ112aから取得した撮影画像を示す画像データを下流のカメラアダプタ120bに送信する。600は、カメラアダプタ120aから送信されるデータである。データ600は、カメラシステム110aで生成した自カメラ画像データが含まれる。データ600には、カメラ112aのカメラ番号601、撮影時刻を示すタイムコード602、センサ114aのセンサ情報を基に画像補正部12013で補正を行ったぶれ補正量603、画像処理部12021で処理した画像604を格納している。
In FIG. 6, the
カメラアダプタ120bは、自カメラ画像データである、カメラ112bから取得した撮影画像を示す画像データを取得する。また、カメラアダプタ120bは、他カメラ画像データである、カメラ112aが撮影した撮影画像を示す画像データをカメラアダプタ120aから取得する。カメラアダプタ120bは、出力データ(カメラ112bから取得した撮影画像を示す自カメラ画像データとカメラアダプタ120aから取得した他カメラ画像データ)が出力可能データ量を超えないと判断し、出力データを通常伝送する。
The
605、610は、カメラアダプタ120bから送信されるデータである。605は上流のカメラアダプタ120aから受信したデータを転送したデータであり、610はカメラシステム110bで生成した自カメラ画像データである。
カメラアダプタ120cは、カメラ112cから取得した撮影画像を示す自カメラ画像データを取得する。また、カメラアダプタ120cは、カメラ112a及びカメラ112bが撮影した撮影画像を示す他カメラ画像データをカメラアダプタ120bから取得する。カメラアダプタ120cは、出力データ(カメラ112cから取得した自カメラ画像データとカメラアダプタ120bから取得した他カメラ画像データ)が出力可能データ量を超えないと判断し、出力データを通常伝送する。
The
606、615、620は、カメラアダプタ120cから送信されるデータである。606、615はそれぞれ上流カメラアダプタ120bから受信したデータの転送データ、620はカメラシステム110cで生成した自カメラ画像データである。
606, 615, and 620 are data transmitted from the
以上示すように、通常伝送時、各カメラアダプタ120は、自カメラ画像データとともに、上流のカメラアダプタ120から受信したデータを漏れなく下流のカメラアダプタに転送する。
As described above, at the time of normal transmission, each
続いて、カメラアダプタ120cにおいて、S507のデータ削減伝送処理が行われた場合のカメラアダプタ120間のデータの流れについて図8を用いて説明する。図8において、カメラアダプタ120a及びカメラアダプタ120bにより伝送されるデータは、図6と同様である。
Subsequently, the flow of data between the
図8において、カメラアダプタ120cは、カメラ112cから取得した撮影画像を示す自カメラ画像データを取得する。また、カメラアダプタ120cは、カメラ112a及びカメラ112bが撮影した撮影画像を示す他カメラ画像データをカメラアダプタ120bから取得する。カメラアダプタ120cは、出力データ(カメラ112cから取得した自カメラ画像データとカメラアダプタ120bから取得した他カメラ画像データ)が出力可能データ量を超えると判断された場合、S507のデータ削減伝送処理を行う。
In FIG. 8, the
カメラアダプタ120cは、取得した自カメラ画像及び他カメラ画像のうち、仮想視点画像の生成に不適切な画像を判定する。ここでは、カメラアダプタ120cは、取得した自カメラ画像及び他カメラ画像の撮影状況を判定し、画質が劣化し得る状況で撮影された画像を判定する。例えば、カメラアダプタ120cは、各画像のメタ情報を取得し、取得したメタ情報からぶれが生じる状況で撮影された画像を判定する。カメラアダプタ120cは、各画像のメタ情報から、最もぶれ補正量が大きい画像であるカメラ112bが撮影した画像データ615を仮想視点画像の生成に適さない画像と判定する。カメラアダプタ120cは、仮想視点画像の生成に不適切な画像と判定した画像データ615を送信対象から外し、画像データ615を削除する。カメラアダプタ120cは、画像データ615を削除後の出力データのデータ量が出力可能データ量を超えないと判定し、出力データを下流のカメラアダプタ120dに伝送する。
The
606、620は、図8におけるカメラアダプタ120cから送信されるデータである。図6と比して、画像データ615が削除されているため、仮想視点画像の生成のために必要な撮影画像を伝送するネットワークの伝送帯域の逼迫を低減することができる。また、削除する画像は、仮想視点画像の生成に不適切な画像であるため、伝送する画像を削減しても、仮想視点画像の画質低下を抑制することができる。
606 and 620 are data transmitted from the
以上示したように、本実施形態では、自カメラ画像、他カメラ画像に関わらず、仮想視点画像の作成に不適切と判定した画像データを適切に伝送対象から削除し伝送帯域のオーバーを防止することができる。また、伝送帯域が逼迫した場合にのみ、仮想視点画像の作成に不適切と判定した画像データを削除することで、不必要なデータ削減を抑止することができる。 As described above, in this embodiment, regardless of the self-camera image and the other-camera image, the image data determined to be unsuitable for creating the virtual viewpoint image is appropriately deleted from the transmission target to prevent the transmission band from being over. be able to. In addition, unnecessary data reduction can be suppressed by deleting the image data determined to be unsuitable for creating the virtual viewpoint image only when the transmission band is tight.
なお、センサ情報としてカメラの振動を示す情報に限定されるものではなく、カメラの向きや位置情報をセンサ114でセンシングしてもよい。
The sensor information is not limited to the information indicating the vibration of the camera, and the
また、上述の実施形態は、画像処理システム100が競技場やコンサートホールなどの施設に設置される場合の例を中心に説明した。施設の他の例としては、例えば、遊園地、公園、競馬場、競輪場、カジノ、プール、スケートリンク、スキー場、ライブハウスなどがある。また、各種施設で行われるイベントは、屋内で行われるものであっても屋外で行われるものであってもよい。また、本実施形態における施設は、一時的に(期間限定で)建設される施設も含む。
Moreover, the above-mentioned embodiment was explained focusing on the example in case
また、図7のS703において、不適切画像判定部12034は、上述の通り、ぶれ量だけでなく、撮影領域の遮蔽物体の有無、撮影領域の変更の有無などの撮影状況の判定結果に基づいて、仮想視点画像の生成において不適切な画像と特定してもよい。また、S703において、不適切画像判定部12034は、上述の通り、撮影画像の画像処理結果に基づいて、当該画像が仮想視点画像の生成において不適切か否かを判定してもよい。また、不適切画像判定部12034は、画像を撮影したカメラ112に設定されている撮影パラメータ(絞り、シャッタースピード、ホワイトバランス、感度など)に基づいて、仮想視点画像の生成において不適切な画像を判定してもよい。不適切画像判定部12034は、規定の値と異なる撮影パラメータを用いて撮影された画像を仮想視点画像の生成において不適切な画像と特定してもよい。仮想視点画像を生成する際に、他の画像と撮影パラメータが異なると、色味などが異なり、画質の劣化が生じ得るためである。この場合、画像データのメタ情報として撮影パラメータが付されている構成としてもよい。
Further, in S703 of FIG. 7, as described above, the inappropriate image determination unit 12034 determines not only the blur amount but also the determination result of the imaging condition such as the presence or absence of the shielding object in the imaging region and the change in the imaging region. The image may be identified as an inappropriate image in generation of a virtual viewpoint image. Further, in S703, as described above, the inappropriate image determination unit 12034 may determine whether the image is inappropriate for generation of a virtual viewpoint image based on the image processing result of the captured image as described above. Also, the inappropriate image determination unit 12034 generates an image that is inappropriate for generating a virtual viewpoint image based on the shooting parameters (aperture, shutter speed, white balance, sensitivity, etc.) set in the
また、S703において、不適切画像判定部12034は、画像コンピューティングサーバ200において生成される仮想視点画像に係る仮想視点の位置に基づいて、仮想視点画像の生成において不適切な画像であって、データを削減する画像を判定してもよい。また、不適切画像判定部12034は、コントローラ300またはエンドユーザ端末190において指定される仮想視点の位置や視線方向に基づいて、仮想視点画像の生成において不適切な画像であって、データを削減する画像を判定してもよい。この場合、不適切画像判定部12034は、生成される仮想視点画像に係る仮想視点の位置や視線方向または指定された仮想視点の位置や視線方向から見て写らない撮影領域の画像を、データを削減する対象として特定してもよい。生成される仮想視点画像に係る仮想視点の位置や視線方向または指定された仮想視点の位置や視線方向から見える領域を写さない撮影領域の画像は、仮想視点画像の生成への寄与が低い。したがって、この画像が伝送されなくとも、生成される仮想視点画像の画質低下への影響は低いためである。
Also, in S703, the inappropriate image determination unit 12034 is an image that is inappropriate for generating a virtual viewpoint image based on the position of the virtual viewpoint related to the virtual viewpoint image generated by the
また、図7のS703において、不適切画像判定部12034は、故障しているカメラ112において撮影された画像を、仮想視点画像の生成において不適切な画像であって、データを削減する画像として判定してもよい。不適切画像判定部12034は、カメラ112の破損やレンズの破損が生じている場合、当該カメラ112において撮影された画像を、仮想視点画像の生成において不適切な画像であって、データを削減する画像として判定してもよい。この場合、画像データのメタ情報としてカメラ112の動作状態や破損状態を撮影パラメータが付されている構成としてもよい。
Further, in S703 of FIG. 7, the inappropriate image determination unit 12034 determines an image captured by the malfunctioning
また、カメラアダプタ120は、S505の判定においてネットワークの伝送帯域の残量や使用状況に応じて、S507のデータ削減伝送処理を行ったが、ネットワークの伝送帯域の残量に拘らずS507のデータ削減伝送処理を行ってもよい。即ち、カメラアダプタ120は、S503〜S504及びS506を省略し、S507の処理を行ってもよい。
In addition, the
また、カメラアダプタ120は、S703において、不適切と判定された画像を削除して出力データ量を低減する例を示した。しかしながら、例えば、不適切と判定された画像の画素数や解像度を減らしたり、圧縮したりして、データ量を削減して不適切と判定された画像を送信することで、当該撮影画像のネットワークへの伝送を制限する構成としてもよい。
Also, the example in which the
以上、本発明の実施形態について詳述したが、本発明は上述の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。 As mentioned above, although the embodiment of the present invention was explained in full detail, the present invention is not limited to the above-mentioned embodiment, and various modification and change within the range of the gist of the present invention described in the claim are included. Is possible.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
100 画像処理システム
110 カメラシステム
112 カメラ
114 センサ
120 カメラアダプタ
180 スイッチングハブ
190 エンドユーザ端末
200 画像コンピューティングサーバ
290 タイムサーバ
300 コントローラ
100
Claims (23)
前記複数の撮像装置のうちの少なくとも1台が撮影した撮影画像を取得する取得手段と、
前記取得手段により取得される前記撮影画像を伝送する伝送手段と、
前記取得手段により取得される前記撮影画像が前記仮想視点画像の生成に適しているか否かを判定する判定手段と、
前記判定手段により前記撮影画像が前記仮想視点画像の生成に適していないと判定された場合、当該撮影画像の前記伝送手段による伝送を制限する制御手段と、
を有することを特徴とする画像伝送装置。 In an image processing system for generating a virtual viewpoint image using a plurality of captured images captured by a plurality of imaging devices, an image transmission device transmitting at least a part of the plurality of captured images to generate the virtual viewpoint image And
An acquisition unit configured to acquire a captured image captured by at least one of the plurality of imaging devices;
Transmission means for transmitting the photographed image acquired by the acquisition means;
A determination unit that determines whether the captured image acquired by the acquisition unit is suitable for generating the virtual viewpoint image;
A control unit that restricts transmission of the captured image by the transmission unit when it is determined by the determination unit that the captured image is not suitable for generating the virtual viewpoint image;
An image transmission apparatus comprising:
前記制御手段は、前記特定手段により特定されたデータ量が閾値を超える場合、前記撮影画像の前記伝送手段による伝送を制限することを特徴とする請求項1から13までのいずれか1項に記載の画像伝送装置。 The information processing apparatus further includes identification means for identifying the data amount of data to be transmitted by the transmission means.
The said control means limits transmission by the said transmission means of the said picked-up image, when the data amount specified by the said identification means exceeds a threshold value, It is any one of Claim 1 to 13 characterized by the above-mentioned. Image transmission device.
前記判定手段は、前記取得手段により取得される前記第1撮影画像と前記第2撮影画像とのうちから前記仮想視点画像の生成に適していない撮影画像を判定することを特徴とする請求項1から14までのいずれか1項に記載の画像伝送装置。 The acquisition unit acquires a first captured image captured by a first imaging device of the plurality of imaging devices and a second captured image captured by a second imaging device of the plurality of imaging devices.
2. The image processing apparatus according to claim 1, wherein the determination unit determines a captured image not suitable for generating the virtual viewpoint image from the first captured image and the second captured image acquired by the acquisition unit. 14. The image transmission device according to any one of items 1 to 14.
前記複数の撮影画像のうち前記仮想視点画像の生成に適してない撮影画像の前記サーバへの伝送を制限することを特徴とする画像伝送方法。 In an image processing system including a plurality of imaging devices, a plurality of image transmission devices transmitting at least a part of a plurality of photographed images photographed by the plurality of imaging devices, and a server generating a virtual viewpoint image An image transmission method,
And transmitting the photographed image not suitable for generating the virtual viewpoint image among the plurality of photographed images to the server.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017206016A JP2019080183A (en) | 2017-10-25 | 2017-10-25 | Image transmission device, image transmission method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017206016A JP2019080183A (en) | 2017-10-25 | 2017-10-25 | Image transmission device, image transmission method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019080183A true JP2019080183A (en) | 2019-05-23 |
Family
ID=66626697
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017206016A Pending JP2019080183A (en) | 2017-10-25 | 2017-10-25 | Image transmission device, image transmission method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019080183A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021077238A (en) * | 2019-11-12 | 2021-05-20 | キヤノン株式会社 | Output device, image processing system, image processing method, and program |
| JP2023051356A (en) * | 2021-09-30 | 2023-04-11 | キヤノン株式会社 | Information processing device, information processing method and program |
-
2017
- 2017-10-25 JP JP2017206016A patent/JP2019080183A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021077238A (en) * | 2019-11-12 | 2021-05-20 | キヤノン株式会社 | Output device, image processing system, image processing method, and program |
| JP2023051356A (en) * | 2021-09-30 | 2023-04-11 | キヤノン株式会社 | Information processing device, information processing method and program |
| JP7576013B2 (en) | 2021-09-30 | 2024-10-30 | キヤノン株式会社 | Information processing device, information processing method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10757397B2 (en) | Information processing apparatus, information processing system, information processing method, and storage medium | |
| US10979631B2 (en) | Image processing system, apparatus, and control method | |
| US11037364B2 (en) | Image processing system for generating a virtual viewpoint image, method of controlling image processing system, and storage medium | |
| JP7179515B2 (en) | Apparatus, control method and program | |
| US11677925B2 (en) | Information processing apparatus and control method therefor | |
| US10699473B2 (en) | System and method for generating a virtual viewpoint apparatus | |
| KR20190140396A (en) | Image processing apparatus, method and storage medium | |
| JP6871801B2 (en) | Image processing equipment, image processing method, information processing equipment, imaging equipment and image processing system | |
| US10812770B2 (en) | Image processing system, image processing apparatus, image processing method, and program | |
| JP2018191251A (en) | Information processing system, information processing method, and program | |
| JP2019008429A (en) | Image processing apparatus, image processing system, image processing method, and program | |
| US10659673B2 (en) | Control apparatus, control method, and non-transitory computer-readable storage medium | |
| US10552980B2 (en) | Image processing apparatus, image processing method, and storage medium | |
| JP2019080183A (en) | Image transmission device, image transmission method, and program | |
| US12439014B2 (en) | Image processing system, image processing apparatus, control method of image processing apparatus, and storage medium | |
| JP2019075740A (en) | Image processing system, image processing apparatus, image transmission method, and program | |
| JP2019020845A (en) | Image processing apparatus and method, and image processing system | |
| JP2019140642A (en) | Control device, control method and program | |
| JP7240258B2 (en) | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE | |
| JP2021034972A (en) | Information processing system, information processing method, and program | |
| EP3926949B1 (en) | Control apparatus, control method, and program | |
| JP2021093648A (en) | Image data processing device, image data processing method, and program | |
| JP2018191236A (en) | Information processing system, information processing method, apparatus, and program | |
| JP2016019250A (en) | Imaging apparatus | |
| JP2022155062A (en) | Communication device, control method, and program |