[go: up one dir, main page]

JP2018113683A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2018113683A
JP2018113683A JP2017246040A JP2017246040A JP2018113683A JP 2018113683 A JP2018113683 A JP 2018113683A JP 2017246040 A JP2017246040 A JP 2017246040A JP 2017246040 A JP2017246040 A JP 2017246040A JP 2018113683 A JP2018113683 A JP 2018113683A
Authority
JP
Japan
Prior art keywords
camera
image processing
processing apparatus
virtual
gui
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017246040A
Other languages
Japanese (ja)
Other versions
JP2018113683A5 (en
JP7073092B2 (en
Inventor
花本 貴志
Takashi Hanamoto
貴志 花本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/860,768 priority Critical patent/US10970915B2/en
Publication of JP2018113683A publication Critical patent/JP2018113683A/en
Publication of JP2018113683A5 publication Critical patent/JP2018113683A5/ja
Application granted granted Critical
Publication of JP7073092B2 publication Critical patent/JP7073092B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想カメラの経路設定において、生成される仮想視点映像におけるオブジェクトの解像度合いをユーザが事前に把握できるようにする。
【解決手段】複数視点映像を用いて、仮想カメラから見た映像である仮想視点映像を生成する画像処理装置であって、同程度の画角を有する複数の実カメラで構成されるカメラ群毎に、当該複数の実カメラに共通する撮影領域を導出する導出手段と、前記仮想カメラに関するパラメータを、GUIを介したユーザ入力に基づいて設定する設定手段と、を備え、前記GUIには、前記導出手段で導出された前記カメラ群毎の撮影領域が認識可能に表示されることを特徴とする。
【選択図】図4
In setting a path of a virtual camera, a user can grasp in advance the resolution of an object in a generated virtual viewpoint video.
An image processing apparatus that generates a virtual viewpoint video that is a video viewed from a virtual camera using a plurality of viewpoint videos, and each camera group including a plurality of real cameras having the same angle of view. In addition, a derivation unit that derives an imaging region common to the plurality of real cameras, and a setting unit that sets a parameter related to the virtual camera based on a user input via a GUI, the GUI includes the The imaging area for each camera group derived by the deriving means is displayed in a recognizable manner.
[Selection] Figure 4

Description

本発明は、仮想視点に関するパラメータを設定する技術に関する。   The present invention relates to a technique for setting parameters relating to a virtual viewpoint.

複数台の実カメラで撮影した映像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの映像を再現する技術として、仮想視点映像技術がある。仮想視点映像の生成においては、実カメラで撮影された映像間の死角によって仮想カメラからの映像を再現できない領域が存在する。また、仮想カメラが実カメラよりも撮影シーン内の人物等(オブジェクト)に近づいた場合は、オブジェクトの解像度合いが低下するためボケた映像となる。これらを考慮せずに、仮想カメラの経路(時間軸に沿った仮想カメラの位置移動)を設定すると、得られる仮想視点映像は低画質なものになってしまう。そのため、出来上がった仮想視点映像をプレビュー画面等で確認し、仮想カメラの経路設定を幾度となくやり直す(再設定する)ことになる可能性がある。 Virtual viewpoint video technology is a technology for reproducing video from a camera (virtual camera) that does not actually exist and is virtually arranged in a three-dimensional space using videos taken by a plurality of real cameras. In the generation of the virtual viewpoint video, there is an area where the video from the virtual camera cannot be reproduced due to the blind spot between the videos taken by the real camera. Further, when the virtual camera is closer to a person or the like (object) in the shooting scene than the real camera, the resolution of the object is reduced, resulting in a blurred image. If the path of the virtual camera (positional movement of the virtual camera along the time axis) is set without taking these into consideration, the obtained virtual viewpoint video has low image quality. Therefore, there is a possibility that the completed virtual viewpoint video is confirmed on the preview screen or the like, and the virtual camera path setting is repeated (reset) several times.

この点、例えば実カメラで撮影した映像間での死角の情報をユーザに提示するという技術が提案されている(特許文献1)。この特許文献1の技術においては、死角領域や観察者に見せたくない領域を2Dマップ上に可視化することで、実際に仮想視点映像を生成せずとも、事前に死角領域を確認することを可能にしていた。   In this regard, for example, a technique has been proposed in which information on blind spots between videos taken with a real camera is presented to the user (Patent Document 1). In the technique of this patent document 1, it is possible to confirm the blind spot area in advance without actually generating the virtual viewpoint video by visualizing the blind spot area or the area that the observer does not want to show on the 2D map. I was doing.

特開2011−172169号公報JP 2011-172169 A

しかしながら、上記特許文献1の手法では、仮想視点の設定前に仮想視点の位置と仮想視点映像の品質の対応関係を確認することができなかった。そこで本発明では、仮想視点の設定前に仮想視点の位置と仮想視点映像の品質の対応関係を確認することができるようにする。これにより、仮想カメラの経路設定のやり直し作業を抑制することを目的とする。   However, with the method of Patent Document 1, it is impossible to confirm the correspondence between the position of the virtual viewpoint and the quality of the virtual viewpoint video before setting the virtual viewpoint. Therefore, according to the present invention, the correspondence between the position of the virtual viewpoint and the quality of the virtual viewpoint video can be confirmed before setting the virtual viewpoint. Accordingly, an object of the present invention is to suppress the reworking of the virtual camera path setting.

本発明に係る画像処理装置は、複数視点映像を用いて、仮想カメラから見た映像である仮想視点映像を生成する画像処理装置であって、同程度の 画角を有する複数の実カメラで構成されるカメラ群毎に、当該複数の実カメラに共通する撮影領域を導出する導出手段と、前記仮想カメラに関するパラメータを、GUIを介したユーザ入力に基づいて設定する設定手段と、を備え、前記GUIには、前記導出手段で導出された前記カメラ群毎の撮影領域が認識可能に表示されることを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that generates a virtual viewpoint video, which is a video viewed from a virtual camera, using a plurality of viewpoint videos, and includes a plurality of real cameras having the same angle of view. For each camera group, a derivation unit for deriving an imaging region common to the plurality of real cameras, and a setting unit for setting a parameter related to the virtual camera based on a user input via a GUI, The GUI is characterized in that an imaging region for each camera group derived by the deriving means is displayed in a recognizable manner.

本発明によれば、仮想カメラの経路設定において、出来上がった仮想視点映像におけるオブジェクトの解像度合いをユーザは事前に把握することができる。これにより、仮想カメラの経路設定のやり直し作業が抑制される。   According to the present invention, in setting a route of a virtual camera, a user can grasp in advance the resolution of an object in a completed virtual viewpoint video. As a result, the reworking of the virtual camera path setting is suppressed.

仮想視点映像システムの構成の一例を示す図である。It is a figure which shows an example of a structure of a virtual viewpoint video system. (a)はカメラ配置の一例を示す図、(b)は各カメラ群に属するカメラの撮影領域を示す図である。(A) is a figure which shows an example of camera arrangement | positioning, (b) is a figure which shows the imaging region of the camera which belongs to each camera group. 仮想視点映像が生成されるまでの全体の流れを示したフローチャートである。It is the flowchart which showed the whole flow until a virtual viewpoint image | video is produced | generated. 仮想カメラのパラメータ設定に使用するGUI画面が生成される過程を示すフローチャートである。It is a flowchart which shows the process in which the GUI screen used for the parameter setting of a virtual camera is produced | generated. カメラ群毎の共通撮影領域の導出方法を説明する図である。It is a figure explaining the derivation | leading-out method of the common imaging | photography area | region for every camera group. カメラ群毎の共通撮影領域がフィールドマップ上に投影された結果の一例を示す図である。It is a figure which shows an example of the result as which the common imaging | photography area | region for every camera group was projected on the field map. 仮想カメラのパラメータ設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the parameter setting process of a virtual camera. 仮想カメラのパラメータ設定用GUI画面の一例を示す図である。It is a figure which shows an example of the GUI screen for parameter setting of a virtual camera. 実施形態2に係る、仮想カメラの高さ調整処理の詳細を示したフローチャートである。10 is a flowchart showing details of a virtual camera height adjustment process according to the second embodiment. 仮想視点映像のサンプル画像の一例を示す図である。It is a figure which shows an example of the sample image of a virtual viewpoint image | video. (a)〜(c)はいずれもサンプル画像の作成手法を説明する図である。(A)-(c) is a figure explaining the production method of a sample image. 実施形態3に係る、仮想カメラおよび注視点パスの指定処理の詳細を示したフローチャートである。10 is a flowchart illustrating details of a virtual camera and gaze point designation process according to the third embodiment. 交差判定を説明する図である。It is a figure explaining intersection determination.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention, and all the combinations of features described in the present embodiment are not necessarily essential to the solution means of the present invention. In addition, about the same structure, the same code | symbol is attached | subjected and demonstrated.

実施形態1Embodiment 1

図1は、本実施形態における、仮想視点映像システムの構成の一例を示す図である。図1に示す仮想視点映像システムは、画像処理装置100と2種類のカメラ群109及び110とで構成される。そして、画像処理装置100は、CPU101、メインメモリ102、記憶部103、入力部104、表示部105、外部I/F106を備え、各部がバス107を介して接続されている。まず、CPU101は、画像処理装置100を統括的に制御する演算処理装置であり、記憶部103等に格納された各種プログラムを実行して様々な処理を行う。メインメモリ102は、各種処理で用いるデータやパラメータなどを一時的に格納するほか、CPU101に作業領域を提供する。記憶部103は、各種プログラムやGUI(グラフィカル・ユーザ・インターフェイス)表示に必要な各種データを記憶する大容量記憶装置で、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。入力部104は、キーボードやマウス、電子ペン、タッチパネル等の装置であり、様々なユーザ入力を受け付ける。表示部105は、液晶パネルなどで構成され、仮想視点映像生成時の仮想カメラの経路設定のためのGUI表示などを行う。外部I/F部106は、カメラ群109及び110を構成する各カメラとネットワーク(ここではLAN108)を介して接続され、映像データや制御信号データの送受信を行う。バス107は上述の各部を接続し、データ転送を行う。   FIG. 1 is a diagram illustrating an example of a configuration of a virtual viewpoint video system in the present embodiment. The virtual viewpoint video system shown in FIG. 1 includes an image processing apparatus 100 and two types of camera groups 109 and 110. The image processing apparatus 100 includes a CPU 101, a main memory 102, a storage unit 103, an input unit 104, a display unit 105, and an external I / F 106, and each unit is connected via a bus 107. First, the CPU 101 is an arithmetic processing device that controls the image processing apparatus 100 in an integrated manner, and executes various programs by executing various programs stored in the storage unit 103 or the like. The main memory 102 temporarily stores data and parameters used in various processes, and provides a work area to the CPU 101. The storage unit 103 is a large-capacity storage device that stores various programs and various data necessary for GUI (graphical user interface) display. For example, a nonvolatile memory such as a hard disk or a silicon disk is used. The input unit 104 is a device such as a keyboard, mouse, electronic pen, or touch panel, and accepts various user inputs. The display unit 105 is configured by a liquid crystal panel or the like, and displays a GUI for setting a virtual camera path when generating a virtual viewpoint video. The external I / F unit 106 is connected to each camera constituting the camera groups 109 and 110 via a network (here, the LAN 108), and transmits and receives video data and control signal data. A bus 107 connects the above-described units and performs data transfer.

上記2種類のカメラ群は、それぞれズームカメラ群109と広角カメラ群110である。ズームカメラ群109は、画角の狭いレンズ(例えば10度)を搭載した複数台のカメラで構成されている。広角カメラ群110は、画角の広いレンズ(例えば45度)を搭載した複数台のカメラで構成されている。そして、ズームカメラ群109及び広角カメラ群110を構成している各カメラはLAN108経由で画像処理装置100に接続されている。また、ズームカメラ群109及び広角カメラ群110は画像処理装置100からの制御信号をもとに、撮影の開始と停止、カメラ設定(シャッタースピード、絞りなど)の変更、撮影した映像データの転送を行う。   The two types of camera groups are a zoom camera group 109 and a wide-angle camera group 110, respectively. The zoom camera group 109 includes a plurality of cameras equipped with lenses having a narrow angle of view (for example, 10 degrees). The wide-angle camera group 110 includes a plurality of cameras equipped with lenses having a wide angle of view (for example, 45 degrees). Each camera constituting the zoom camera group 109 and the wide-angle camera group 110 is connected to the image processing apparatus 100 via the LAN 108. The zoom camera group 109 and the wide-angle camera group 110 also start and stop shooting, change camera settings (shutter speed, aperture, etc.), and transfer shot video data based on control signals from the image processing apparatus 100. Do.

なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。   In addition to the above, there are various components of the system configuration, but the description is omitted because it is not the main point of the present invention.

図2(a)は、例えばサッカー等を行う競技場に、ズームカメラ群109と広角カメラ群110の2種類のカメラ群からなる撮像システムにおけるカメラ配置の一例を示した図である。競技を行うフィールド201上にはオブジェクト202としての選手が存在している。そして、ズームカメラ群109を構成する12台のズームカメラ203と広角カメラ群110を構成する12台の広角カメラ204がフィールド201を取り囲むように配置されている。図2(b)において点線で囲まれた領域213は、ズームカメラ203の撮影領域を示している。ズームカメラ203は画角が狭いため撮影領域は狭いが、オブジェクト202を撮影した際の解像度合いは高いという特性を持つ。また、図2(c)において点線で囲まれた領域214は、広角カメラ204の撮影領域を示している。広角カメラ204は画角が広いため撮影領域は広いが、オブジェクト202を撮影した際の解像度合いは低いという特性を持つ。なお、図2(b)では撮影領域の形状を便宜的に楕円で示しているが、後述のとおり各カメラの実際の撮影領域の形状は矩形・台形であるのが一般的である。   FIG. 2A is a diagram illustrating an example of camera arrangement in an imaging system including two types of camera groups, a zoom camera group 109 and a wide-angle camera group 110, in a stadium where, for example, soccer is performed. A player as an object 202 exists on the field 201 where the competition is performed. Then, twelve zoom cameras 203 constituting the zoom camera group 109 and twelve wide angle cameras 204 constituting the wide angle camera group 110 are arranged so as to surround the field 201. An area 213 surrounded by a dotted line in FIG. 2B indicates a shooting area of the zoom camera 203. Although the zoom camera 203 has a narrow angle of view so that the shooting area is narrow, the zoom camera 203 has a high resolution when shooting the object 202. In addition, an area 214 surrounded by a dotted line in FIG. 2C indicates an imaging area of the wide-angle camera 204. The wide-angle camera 204 has a wide angle of view and thus a wide shooting area, but has a characteristic that the resolution when shooting the object 202 is low. In FIG. 2B, the shape of the shooting area is indicated by an ellipse for the sake of convenience. However, as will be described later, the actual shape of the shooting area of each camera is generally rectangular or trapezoidal.

図3は、画像処理装置100において仮想視点映像が生成されるまでの全体の流れを示したフローチャートである。この一連の処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。   FIG. 3 is a flowchart showing the overall flow until the virtual viewpoint video is generated in the image processing apparatus 100. This series of processing is realized by the CPU 101 reading a predetermined program from the storage unit 103 and developing it in the main memory 102, which is executed by the CPU 101.

ステップ301では、ズームカメラ群109及び広角カメラ群110に対して、撮影時の露光条件等の撮影パラメータと撮影開始の信号が送信される。各カメラ群に属する各カメラは、受信した撮影パラメータに従って撮影を開始し、得られた映像データを各カメラ内のメモリに保持する。   In step 301, shooting parameters such as exposure conditions during shooting and a shooting start signal are transmitted to the zoom camera group 109 and the wide-angle camera group 110. Each camera belonging to each camera group starts shooting according to the received shooting parameters, and holds the obtained video data in a memory in each camera.

ステップ302では、ズームカメラ群109に属する各ズームカメラ203によって撮影された複数視点映像データ及び広角カメラ群110に属する各広角カメラ204によって撮影された複数視点映像データが取得される。取得された複数視点(ここでは各12視点)の映像データは、メインメモリ102に展開される。   In step 302, multi-view video data captured by each zoom camera 203 belonging to the zoom camera group 109 and multi-view video data captured by each wide-angle camera 204 belonging to the wide-angle camera group 110 are acquired. The acquired video data of a plurality of viewpoints (here, each of 12 viewpoints) is developed in the main memory 102.

ステップ303では、ステップ302で取得した複数視点映像データを用いてオブジェクトの3次元形状の推定処理が実行される。推定手法としては、オブジェクトの輪郭情報を用いるVisual-hull手法や、三角測量を用いたMulti-view stereo手法など公知の手法を適用すればよい。   In step 303, the process for estimating the three-dimensional shape of the object is executed using the multi-viewpoint video data acquired in step 302. As the estimation method, a known method such as a Visual-hull method using the contour information of an object or a Multi-view stereo method using triangulation may be applied.

ステップ304では、推定したオブジェクト形状データに基づき、自由始点映像の生成に必要な仮想カメラの移動経路といった各種パラメータが設定される。仮想カメラのパラメータ設定に関する処理の詳細に関しては、後に詳述する。   In step 304, various parameters such as a moving path of the virtual camera necessary for generating the free start video are set based on the estimated object shape data. Details of processing related to the virtual camera parameter setting will be described later.

ステップ305では、設定された仮想カメラパラメータに従って、仮想視点映像が生成される。仮想視点映像は、推定されたオブジェクト形状に対して、設定された仮想カメラから見た映像をコンピュータグラフィックスの技術を用いることで生成することができる。   In step 305, a virtual viewpoint video is generated according to the set virtual camera parameters. The virtual viewpoint video can be generated by using a computer graphics technique for a video viewed from a set virtual camera with respect to the estimated object shape.

ステップ306では、仮想カメラのパラメータ設定を変更して新たな仮想視点映像を生成するかどうかが判定される。この処理は、不図示のプレビュー画面に表示された仮想視点映像を見て、その画質等を確認したユーザからの指示に基づいてなされる。ユーザが仮想視点映像を生成し直したいと考えた場合は、改めて仮想カメラに関するパラメータ設定を行なう(ステップ304に戻る。)。そして、パラメータを変更すると、変更後の内容で仮想視点映像が改めて生成される。一方、生成された仮想視点映像に問題がなければ本処理を終える。以上が、本実施形態に係る、仮想視点映像が生成されるまでの大まかな流れである。   In step 306, it is determined whether to change the parameter setting of the virtual camera to generate a new virtual viewpoint video. This process is performed based on an instruction from a user who has viewed the virtual viewpoint video displayed on a preview screen (not shown) and confirmed the image quality. If the user wants to regenerate the virtual viewpoint video, the parameter setting for the virtual camera is performed again (return to step 304). When the parameter is changed, a virtual viewpoint video is newly generated with the changed content. On the other hand, if there is no problem in the generated virtual viewpoint video, this process is finished. The above is a rough flow until the virtual viewpoint video is generated according to the present embodiment.

続いて、前述のステップ304における仮想カメラのパラメータ設定処理で使用するGUI画面の準備処理について説明する。図4は、仮想カメラのパラメータ設定に使用するGUI画面が生成される過程を示すフローチャートである。なお図4の処理は、図3で示す各処理に先駆けて実行されていても良いし、ステップ304が実行されるタイミングで実行されても良い。   Next, the preparation process of the GUI screen used in the virtual camera parameter setting process in the above-described step 304 will be described. FIG. 4 is a flowchart showing a process of generating a GUI screen used for parameter setting of the virtual camera. Note that the processing in FIG. 4 may be executed prior to each processing shown in FIG. 3 or may be executed at the timing at which step 304 is executed.

ステップ401では、すべてのカメラ群(ここではズームカメラ群と109と広角カメラ群110の2種類)のカメラ情報が取得される。カメラ情報には、各カメラ群に属するカメラの設置場所、注視点位置、画角といった情報が含まれる。本実施形態において注視点位置とは、24台のすべてのカメラの撮影の中心となる位置である。これらの情報は予め記憶部103に保持しておいたものを読み出して取得してもよいし、LAN108を介して各カメラ(或いは各カメラ群を代表する1台のカメラ)にアクセスして取得してもよい。   In step 401, camera information of all camera groups (here, two types of zoom camera group 109 and wide-angle camera group 110) is acquired. The camera information includes information such as the installation location of the camera belonging to each camera group, the point of interest position, and the angle of view. In this embodiment, the gazing point position is a position that is the center of photographing of all 24 cameras. Such information may be obtained by reading out information previously stored in the storage unit 103, or obtained by accessing each camera (or one camera representing each camera group) via the LAN 108. May be.

ステップ402では、取得した各カメラ群のカメラ情報に基づいて、略同じ画角を有する複数のカメラの撮影領域が重複する領域(共通撮影領域)が、カメラ群単位で導出される。ここで、「略同じ」と表現しているのはカメラから注視点までの距離の差によってカメラ間で微細な画角の変動が発生するためである。なお、同じカメラ群に属する各カメラの画角は完全に同じでなくてもよい。図5は、カメラ群毎の共通撮影領域の導出方法を説明する図である。いま、フィールド201に対して同じカメラ群に属する2台のカメラ501と502が同じ注視点を向いて撮影を行っている。このとき、カメラ501とカメラ502が属するカメラ群の撮影領域は、カメラ501から注視点に向けた四角錐とフィールド201との交面511と、カメラ502から注視点に向けた四角錐とフィールド201との交面512とが重複する領域513として求められる。ここでは、説明の便宜上、カメラ501と502の2台で説明を行ったが、3台以上でも考え方は同じである。こうして、各カメラ群についての共通撮影領域が導出される。   In step 402, based on the acquired camera information of each camera group, an area (common shooting area) where shooting areas of a plurality of cameras having substantially the same angle of view overlap is derived for each camera group. Here, the expression “substantially the same” is because a fine change in the angle of view occurs between the cameras due to a difference in distance from the camera to the gazing point. Note that the angles of view of the cameras belonging to the same camera group may not be completely the same. FIG. 5 is a diagram for explaining a method for deriving a common imaging region for each camera group. Now, two cameras 501 and 502 belonging to the same camera group with respect to the field 201 are shooting at the same point of sight. At this time, the imaging region of the camera group to which the camera 501 and the camera 502 belong includes an intersection plane 511 between the square pyramid and the field 201 from the camera 501 toward the gazing point, and a quadrangular pyramid and the field 201 from the camera 502 toward the gazing point. It is calculated | required as the area | region 513 with which the intersection surface 512 overlaps. Here, for convenience of explanation, explanation has been given with two cameras 501 and 502, but the concept is the same with three or more cameras. Thus, a common shooting area for each camera group is derived.

ステップ403では、フィールド201を含む撮影空間全体の俯瞰図(フィールドマップ)上に、導出したカメラ群毎の共通撮影領域のそれぞれが認識可能な態様で可視化して投影される。図6は、フィールドマップ上に、カメラ群毎の共通撮影領域が認識可能に投影された結果の一例を示す図である。図6において、矩形の枠600がフィールドマップを示す。そして、破線の楕円601がズームカメラ群109の共通撮影領域(以下、ズームカメラ群撮影領域)を示している。ズームカメラ群撮影領域601内では、ズームカメラ群109で撮影した複数視点映像を用いた仮想視点映像の生成が可能である。ズームカメラ群撮影領域601内では、オブジェクトの解像度合いが相対的に高いため、仮想カメラをオブジェクトに近づけても(仮想カメラの高さを低くしても)、仮想視点映像の画質を維持することが可能である。本実施形態の場合、ズームカメラ群撮影領域601は、ズームカメラ群109に属する12台全てのズームカメラ203の撮影領域が重複する領域となっている。そして、一点鎖線の楕円602が広角カメラ群110の共通撮影領域(以下、広角カメラ群撮影領域)を示している。広角カメラ群撮影領域602内では、広角カメラ群110で撮影した複数視点映像を用いた仮想視点映像の生成が可能である。広角カメラ群撮影領域602内では、オブジェクトの解像度合いが相対的に低いため、仮想カメラをオブジェクトに一定以上近づける(仮想カメラの高さを一定以下に低くする)と、仮想視点映像の画質が悪化することになる。本実施形態の場合、広角カメラ群撮影領域602は、広角カメラ群110に属する12台全ての広角カメラ204の撮影領域が重複する領域となっている。また、フィールドマップ600内の斜線で示す領域603は、本実施形態において画角の広い広角カメラ群110に属する各広角カメラ204の撮影領域が重複せず、一定の品質の仮想視点映像生成が不可能な領域(以下、仮想視点映像生成不可領域)を示している。図6の例では、ズームカメラ群撮影領域と広角カメラ群撮影領域の外縁がそれぞれ破線と一点鎖線で示され、さらに仮想視点映像生成不可領域が斜線で示されているが、これに限定されない。仮想視点映像を生成可能なカメラ群毎の共通撮影領域がユーザに認識可能なように表示されていればよく、例えば色分けなどによって各領域を示してもよい。なお、図6では、説明の便宜上、各カメラ群の共通撮影領域の形状を楕円で示しているが、実際には多角形となる。このようにして、仮想カメラのパラメータ設定処理で使用するGUI画面の準備が整う。   In step 403, each of the derived common shooting areas for each camera group is visualized and projected on an overhead view (field map) of the entire shooting space including the field 201. FIG. 6 is a diagram illustrating an example of a result of recognizing and projecting a common shooting area for each camera group on the field map. In FIG. 6, a rectangular frame 600 indicates a field map. A dashed ellipse 601 indicates a common shooting area of the zoom camera group 109 (hereinafter, zoom camera group shooting area). Within the zoom camera group shooting area 601, it is possible to generate a virtual viewpoint video using a plurality of viewpoint videos shot by the zoom camera group 109. In the zoom camera group shooting area 601, the resolution of the object is relatively high, so that the image quality of the virtual viewpoint video is maintained even when the virtual camera is brought close to the object (even if the height of the virtual camera is lowered). Is possible. In the present embodiment, the zoom camera group shooting area 601 is an area where the shooting areas of all twelve zoom cameras 203 belonging to the zoom camera group 109 overlap. A dashed-dotted ellipse 602 indicates a common shooting area of the wide-angle camera group 110 (hereinafter, a wide-angle camera group shooting area). Within the wide-angle camera group shooting area 602, it is possible to generate a virtual viewpoint video using a plurality of viewpoint videos shot by the wide-angle camera group 110. Since the resolution of the object is relatively low in the wide-angle camera group shooting region 602, the image quality of the virtual viewpoint video deteriorates when the virtual camera is brought closer to the object than a certain level (the height of the virtual camera is lowered below a certain level). Will do. In the present embodiment, the wide-angle camera group shooting area 602 is an area where the shooting areas of all 12 wide-angle cameras 204 belonging to the wide-angle camera group 110 overlap. In the field map 600, an area 603 indicated by hatching does not overlap with the shooting areas of the wide-angle cameras 204 belonging to the wide-angle camera group 110 having a wide angle of view in the present embodiment, and it is difficult to generate a virtual viewpoint video of a certain quality. A possible area (hereinafter, a virtual viewpoint video generation impossible area) is shown. In the example of FIG. 6, the outer edges of the zoom camera group shooting area and the wide-angle camera group shooting area are indicated by broken lines and alternate long and short dash lines, respectively, and the virtual viewpoint video non-generation area is indicated by oblique lines, but this is not limitative. It suffices if the common shooting area for each camera group capable of generating a virtual viewpoint video is displayed so that it can be recognized by the user. For example, each area may be indicated by color coding or the like. In FIG. 6, for convenience of explanation, the shape of the common shooting area of each camera group is indicated by an ellipse, but actually, it is a polygon. In this way, the GUI screen used for the virtual camera parameter setting process is ready.

次に、本実施形態に係る、仮想カメラのパラメータ設定処理について、図7のフローを参照して説明する。図7の処理は、図3のステップ304の処理に対応する。まず、ステップ701では、仮想カメラのパラメータ設定用GUI画面が表示部105に表示される。図8は、GUI画面の一例を示す図である。図8(a)に示すGUI画面800では、前述の準備処理で得られたフィールドマップ600が画面左側に表示されており、その上に前述のステップ303で推定したオブジェクト形状810がマッピングされている。   Next, the virtual camera parameter setting process according to the present embodiment will be described with reference to the flowchart of FIG. The process in FIG. 7 corresponds to the process in step 304 in FIG. First, in step 701, a virtual camera parameter setting GUI screen is displayed on the display unit 105. FIG. 8 is a diagram illustrating an example of a GUI screen. In the GUI screen 800 shown in FIG. 8A, the field map 600 obtained by the above-described preparation process is displayed on the left side of the screen, and the object shape 810 estimated at the above-described step 303 is mapped thereon. .

ステップ702では、表示されたGUI画面を介して、仮想カメラの移動経路(カメラパス)や注視点の移動経路(注視点パス)の指定を受け付ける。ユーザは、ボタン801又は803を押下した後、フィールドマップ600上でマウス等を操作してカーソルを移動することで、その移動軌跡をカメラパス又は注視点パスとして指定する。図8(a)において太線の矢印811は指定されたカメラパスを、点線の矢印812は指定された注視点パスを示している。このようにして指定されたカメラパスと注視点パスとは、設定フレームにおいて整合するように対応付けられている。つまり、仮想視点映像が例えば600フレームで構成されている場合、それぞれのパスをフレーム数で分割した各分割点を矢印の開始点から順に対応させておく。ユーザがカメラパス811上の任意の位置(座標)にカーソルを移動し、マウス等のクリック操作を行うと、カーソルに最も近い分割点P0を選択・表示し、P0に対応する注視点位置Q0も表示する。このとき、仮想カメラから見た画角領域813も同時に表示される。ユーザは注視点Q0、オブジェクト810、画角領域813の位置関係を把握することができるため、注視点Q0やオブジェクト810がズームカメラ群撮影領域601、広角カメラ群撮影領域602及び仮想視点映像生成不可領域603のうち、どの領域に収まるか、すなわち、仮想視点映像がどのような解像度になるかを確認しつつ指定作業を行うことができる。そのため、カメラパス等を適切に設定することができ、指定作業のやり直し回数を抑制することができる。なお、P0、Q0をマウス等で移動させることにより、パスの修正を行うことも可能である。また、仮想カメラパスのフィールド201からの高さはデフォルト値(例えば、15m)となり、注視点パスの高さは仮想カメラパスよりも低いデフォルト値(例えば、1m)を設定する。   In step 702, designation of a virtual camera movement path (camera path) and a gaze point movement path (gaze point path) is accepted via the displayed GUI screen. After the user presses the button 801 or 803 and operates the mouse or the like on the field map 600 to move the cursor, the movement locus is designated as a camera path or a gazing point path. In FIG. 8A, a thick arrow 811 indicates a designated camera path, and a dotted arrow 812 indicates a designated gaze point path. The camera path and the gazing point path specified in this way are associated with each other so as to match in the setting frame. That is, when the virtual viewpoint video is composed of, for example, 600 frames, each division point obtained by dividing each path by the number of frames is sequentially associated with the start point of the arrow. When the user moves the cursor to an arbitrary position (coordinates) on the camera path 811 and performs a click operation with a mouse or the like, the division point P0 closest to the cursor is selected and displayed, and the gazing point position Q0 corresponding to P0 is also displayed. indicate. At this time, an angle of view area 813 viewed from the virtual camera is also displayed. Since the user can grasp the positional relationship between the gazing point Q0, the object 810, and the view angle area 813, the gazing point Q0 and the object 810 cannot generate the zoom camera group shooting area 601, the wide angle camera group shooting area 602, and the virtual viewpoint video. The designation work can be performed while confirming which area of the area 603 fits, that is, what resolution the virtual viewpoint video has. Therefore, the camera path and the like can be appropriately set, and the number of times of performing the designated work can be suppressed. It is also possible to correct the path by moving P0 and Q0 with a mouse or the like. The height from the field 201 of the virtual camera path is a default value (for example, 15 m), and the default value (for example, 1 m) is set as the height of the gazing point path that is lower than the virtual camera path.

ステップ703では、仮想カメラおよび注視点の高さ調整を行うか否かによって処理の切り分けがなされる。ユーザがカメラパス高さ編集ボタン802または、注視点パス高さ編集ボタン804を押下した場合は、ステップ704に進む。   In step 703, the process is divided depending on whether or not the height of the virtual camera and the point of gaze is adjusted. If the user presses the camera path height edit button 802 or the gaze point path edit button 804, the process proceeds to step 704.

ステップ704では、仮想カメラおよび注視点の高さを調整する処理(高さ調整処理)が実行される。ここでは、仮想カメラの高さを調整する処理を例に説明を行う。ユーザは、カメラパス811上の任意の位置(座標)にカーソルを移動し、マウス等のクリック操作を行うことによって、高さを変更したい仮想カメラの位置(高さ編集点)を指定する。ここでも、ステップ703と同様にカーソルに最も近い分割点を高さ編集点として選択・表示する。図8(b)において、カメラパス811上に×印で示された箇所が、ユーザによって指定された高さ編集点を示している。この高さ編集点は複数個設定することが可能である。図8(b)の例では、P1とP2の2つの高さ編集点が設定されており、それに合わせて、P1とP2と対応する注視点パス812上の点Q1、Q2を表示する。また、P1とQ1、P2とQ2を結ぶ距離をGUI上に表示する。これは、仮想カメラと注視点との距離によって仮想視点映像内のオブジェクトのサイズが変化するためである。距離が近い程、オブジェクトのサイズが大きくなり、ボケた映像になりやすくなる。図8(b)の場合、P1〜Q1間が24mで、P2〜Q2間が20mとなっており、P2〜Q2の方がよりボケやすい映像となる。高さ編集点が設定されると、GUI画面800内に高さ設定ウィンドウ820が表示され、ユーザは高さ設定ウィンドウ820内の各編集点に対応する入力欄821に任意の値(単位:m)を入力することによって当該位置における仮想カメラの高さを変更することができる。この際もユーザは、ズームカメラ群撮影領域601や広角カメラ群撮影領域602、仮想カメラと注視点との間の距離を確認しながら任意の値を指定できるため、仮想カメラの高さを適切に設定できる。なお、高さ編集点によって高度が変更された箇所以外の高さは、近接する位置の高さ編集点又はデフォルト値から補間して、高さが急激に変化しないように調整される。   In step 704, processing for adjusting the heights of the virtual camera and the point of interest (height adjustment processing) is executed. Here, a process for adjusting the height of the virtual camera will be described as an example. The user moves the cursor to an arbitrary position (coordinates) on the camera path 811 and performs a click operation with a mouse or the like to specify the position (height edit point) of the virtual camera whose height is to be changed. Here again, as in step 703, the division point closest to the cursor is selected and displayed as the height edit point. In FIG. 8B, a portion indicated by a cross on the camera path 811 indicates a height edit point designated by the user. A plurality of height editing points can be set. In the example of FIG. 8B, two height editing points P1 and P2 are set, and points Q1 and Q2 on the gazing point path 812 corresponding to P1 and P2 are displayed accordingly. Also, the distance connecting P1 and Q1 and P2 and Q2 is displayed on the GUI. This is because the size of the object in the virtual viewpoint video changes depending on the distance between the virtual camera and the gazing point. The closer the distance, the larger the size of the object and the more likely it will be blurred. In the case of FIG. 8B, the distance between P1 and Q1 is 24 m, and the distance between P2 and Q2 is 20 m, and P2 to Q2 are more easily blurred. When the height edit point is set, a height setting window 820 is displayed in the GUI screen 800, and the user can enter an arbitrary value (unit: m) in the input field 821 corresponding to each edit point in the height setting window 820. ) Can be changed to change the height of the virtual camera at that position. At this time, the user can specify any value while confirming the distance between the zoom camera group shooting area 601, the wide-angle camera group shooting area 602, and the virtual camera and the gazing point. Can be set. It should be noted that the heights other than the portion where the altitude is changed by the height editing point are adjusted so that the height does not change abruptly by interpolating from the height editing point at the adjacent position or the default value.

以上が、本実施形態に係る仮想カメラのパラメータ設定処理の内容である。なお、本実施形態のGUI画面では、各カメラ群撮影領域を2次元で表示していたが、3次元表示してもよい。   The above is the content of the parameter setting process of the virtual camera according to the present embodiment. In the GUI screen of this embodiment, each camera group shooting area is displayed in two dimensions, but may be displayed in three dimensions.

以上のとおり本実施形態によれば、仮想カメラの移動経路や高さといったパラメータを、ユーザは各カメラ群の撮影領域を把握しながら設定することできる。これにより仮想視点映像生成時におけるパラメータ設定作業のやり直しを抑制することが可能となる。   As described above, according to the present embodiment, the user can set parameters such as the moving path and height of the virtual camera while grasping the imaging region of each camera group. As a result, it is possible to suppress redo of the parameter setting work when generating the virtual viewpoint video.

実施形態2Embodiment 2

実施形態1では、仮想カメラのパラメータ設定用GUI画面上にカメラ群毎の共通撮影領域を可視化してフィールドマップ上に投影することで、カメラパス等を適切に設定できるようにした。次に、仮想カメラの高さ調整においてオブジェクトの解像度合いを直接的にユーザが確認できるようにする態様について、実施形態2として説明する。   In the first embodiment, a common imaging area for each camera group is visualized on the GUI screen for parameter setting of the virtual camera and projected onto the field map, so that the camera path and the like can be set appropriately. Next, a mode in which the user can directly check the resolution of the object in the height adjustment of the virtual camera will be described as a second embodiment.

基本的なシステム構成や自視点映像生成処理の大まかな流れは実施形態1と同一であるため説明を省略し、以下では差異点を中心に説明する。   Since the basic system configuration and the general flow of the self-viewpoint video generation process are the same as those in the first embodiment, the description thereof will be omitted, and the following description will focus on the differences.

図9は、本実施形態に係る、仮想カメラの高さ調整処理(前述のステップ704)の詳細を示したフローチャートである。   FIG. 9 is a flowchart showing details of the virtual camera height adjustment process (step 704 described above) according to the present embodiment.

ステップ901では、高さ編集点の指定を受け付ける。ここでも前述の図8(b)に示すようにP1とP2の2点が指定されたものとする。続くステップ902では、指定された高さ編集点における高さの下限値を取得する。高さの下限値とは、オブジェクトの解像度合いとして許容し得る最低限のレベルに対応する仮想カメラの高さを示し、仮想カメラと注視点との間の距離と、仮想カメラの画角、注視点の位置するカメラ群撮影領域の組合せで予め決定しておく。つまり、注視点が高解像度のカメラ群撮影領域に位置する場合、仮想カメラと注視点との間の距離を短くできるため、高さの下限値は低くなる。一方、注視点が低解像度のカメラ群撮影領域に位置する場合、高さの下限値は高くなる。また、画角が広い場合は高さ下限値が低くなり、画角が狭い場合は高さ下限値が高くなる。解像度合いが許容できるか否かは、例えば実カメラにおけるオブジェクトの解像度合いを下回るかどうかといった基準に依って判断される。高さ下限値の取得にあたっては、まず、指定された高さ編集点の注視点座標を取得し、当該座標に対応する各カメラ群撮影領域の分類情報、仮想カメラと注視点との間の距離及び仮想カメラの画角の情報を取得する。分類情報とは、座標位置毎に付与された、ズームカメラ群撮影領域601や広角カメラ群撮影領域602であることを示すフラグなどの情報を意味する。そして、取得したこれらの情報に基づき、指定された高さ編集点における仮想カメラの高さ下限値を取得する。   In step 901, designation of a height edit point is accepted. Here, it is assumed that two points P1 and P2 are designated as shown in FIG. In the subsequent step 902, the lower limit value of the height at the designated height editing point is acquired. The lower limit of the height indicates the height of the virtual camera corresponding to the minimum level acceptable as the resolution of the object, the distance between the virtual camera and the point of interest, the angle of view of the virtual camera, the note It is determined in advance by the combination of the camera group shooting area where the viewpoint is located. That is, when the gazing point is located in the high-resolution camera group photographing region, the distance between the virtual camera and the gazing point can be shortened, and thus the lower limit value of the height is lowered. On the other hand, when the gazing point is located in the low-resolution camera group photographing region, the lower limit value of the height is increased. When the angle of view is wide, the lower limit value of the height is lowered, and when the angle of view is narrow, the lower limit value of the height is increased. Whether or not the resolution is acceptable is determined based on a criterion such as whether or not the resolution is below the resolution of the object in the actual camera. When acquiring the lower height limit, first, obtain the gaze point coordinates of the specified height edit point, the classification information of each camera group shooting area corresponding to the coordinates, the distance between the virtual camera and the gaze point And information on the angle of view of the virtual camera. The classification information means information such as a flag that is given for each coordinate position and that indicates a zoom camera group photographing region 601 or a wide-angle camera group photographing region 602. And based on these acquired information, the height lower limit of the virtual camera in the designated height edit point is acquired.

ステップ903では、取得した高さ下限値に対応する仮想視点映像のサンプル画像を表示する。サンプル画像は、実カメラの映像からオブジェクトを切り出したものである。切り出し手法を、図11(a)及び(b)を用いて説明する。図11(a)は、ある実カメラで撮影した画像1101を示す。画像1101には、5人の選手に相当するオブジェクトA〜Eが写っている。この画像1101に対して、オブジェクトA〜Eのそれぞれの顔や背番号を既存の認識技術を用いて識別することで、オブジェクト毎にその領域を切り出したサンプル画像が得られる。得られたサンプル画像のデータは、その画素数(幅と高さ)の情報と共に記憶部103に保持する。図11(b)は、別の実カメラで撮影した画像1102を示す。この画像1102に対しても同様の処理を施してサンプル画像を取得する。そして、新たに作成したサンプル画像の画素数が、その前に作成したサンプル画像の画素数を上回るならば、新たに作成したサンプル画像で上書き(更新)するという処理を、オブジェクト単位で繰り返す。この処理を全ての実カメラで実行することにより、最も解像度の高いサンプル画像をオブジェクト毎に用意できる。サンプル画像を表示する際には、仮想カメラとオブジェクトとの距離、仮想カメラの画角に応じて、サンプル画像を縮小する。この縮小の方法を、図11(c)を用いて説明する。まず、注視点に最も近いオブジェクトを検出し、そのオブジェクトのサンプル画像のデータを記憶部103からメインメモリ102に読み込む。次に、仮想カメラとオブジェクトとの間の距離、仮想カメラの画角から、仮想視点映像におけるオブジェクト領域の画素数を算出する。具体的には、検出されたオブジェクトの位置に、選手の標準的な身長サイズの三次元モデル1122を配置し、仮想カメラ1121から見た場合のプレビュー画像1123を描画することで算出できる。そして、プレビュー画像1123におけるオブジェクト領域とサンプル画像の画素数(幅と高さ)とが一致・または近似値になるように、サンプル画像を縮小する。縮小後は、GUI画面800に表示するため、適切なサイズに単純補間で拡大する。サンプル画像は、例えば図10(a)に示すサブウインドウのような形式でGUI画面800上に表示する。これによりユーザは、高さを下限値まで下げた場合のオブジェクトの解像度合いを実際の画像で確認できる。このとき、図10(a)に示すように、対応する高さ下限値をサンプル画像と併せて表示すようにしてもよい。   In step 903, a sample image of the virtual viewpoint video corresponding to the acquired height lower limit value is displayed. The sample image is an object cut out from the video of the real camera. The clipping method will be described with reference to FIGS. 11 (a) and 11 (b). FIG. 11A shows an image 1101 captured by a certain real camera. The image 1101 includes objects A to E corresponding to five players. By identifying the faces and spine numbers of the objects A to E with respect to the image 1101 using an existing recognition technique, a sample image obtained by cutting out the area for each object can be obtained. The obtained sample image data is held in the storage unit 103 together with information on the number of pixels (width and height). FIG. 11B shows an image 1102 taken with another real camera. A similar process is performed on the image 1102 to obtain a sample image. If the number of pixels of the newly created sample image exceeds the number of pixels of the previously created sample image, the process of overwriting (updating) with the newly created sample image is repeated for each object. By executing this processing with all real cameras, a sample image with the highest resolution can be prepared for each object. When displaying the sample image, the sample image is reduced according to the distance between the virtual camera and the object and the angle of view of the virtual camera. This reduction method will be described with reference to FIG. First, an object closest to the gazing point is detected, and sample image data of the object is read from the storage unit 103 into the main memory 102. Next, the number of pixels in the object area in the virtual viewpoint video is calculated from the distance between the virtual camera and the object and the angle of view of the virtual camera. Specifically, it can be calculated by placing a three-dimensional model 1122 having a standard height size of the player at the position of the detected object and drawing a preview image 1123 when viewed from the virtual camera 1121. Then, the sample image is reduced so that the object area in the preview image 1123 and the number of pixels (width and height) of the sample image match or approximate. After the reduction, in order to display on the GUI screen 800, it is enlarged by simple interpolation to an appropriate size. The sample image is displayed on the GUI screen 800 in a format such as a sub window shown in FIG. As a result, the user can confirm the resolution of the object when the height is lowered to the lower limit with an actual image. At this time, as shown in FIG. 10A, the corresponding height lower limit value may be displayed together with the sample image.

ステップ904では、指定された高さ編集点について、高さ設定ウィンドウ820を介して入力された高さの変更を受け付ける。続くステップ905では、変更後の高さが、高さ下限値を下回っているかどうかを判定する。変更後の高さが下限値を下回っている場合は、ステップ906に進む。一方、変更後の高さが下限値以上の場合は、本処理を抜ける。   In step 904, a change in height input via the height setting window 820 is accepted for the designated height editing point. In the following step 905, it is determined whether or not the changed height is lower than the height lower limit value. When the changed height is below the lower limit value, the process proceeds to step 906. On the other hand, if the height after the change is equal to or greater than the lower limit value, the process is exited.

ステップ906では、サンプル画像を変更後の高さに応じた内容、すなわち、許容の限界を超えた低解像度のサンプル画像に更新する。図10(b)は、更新後のサンプル画像の一例を示しており、高さ調整点P2に対応するサンプル画像がボケているのが分かる。この更新後のサンプル画像は、上述のステップ903と同様、設定後の仮想カメラと注視点との間の距離ならびに仮想カメラの画角に応じて、オブジェクト固有のサンプル画像を縮小・拡大表示したものである。この際、高さ下限値を下回ったことを示す、例えば「下限値を下回っています。」といったメッセージの表示(警告表示)を行ってもよい。続くステップ907では、高さの再変更の有無に応じて処理を切り替える。新たな高さの指定があった場合はステップ904に戻る。新たな高さの指定がなかった場合は本処理を抜ける。   In step 906, the sample image is updated to the content corresponding to the height after the change, that is, the sample image with a low resolution exceeding the allowable limit. FIG. 10B shows an example of the updated sample image, and it can be seen that the sample image corresponding to the height adjustment point P2 is blurred. This updated sample image is a reduced / enlarged display of the sample image unique to the object according to the distance between the virtual camera and the point of gaze after setting and the angle of view of the virtual camera, as in step 903 described above. It is. At this time, a message (warning display) indicating that the height is below the lower limit value, for example, “below the lower limit value” may be displayed. In the subsequent step 907, the processing is switched depending on whether or not the height is changed again. If a new height is designated, the process returns to step 904. If no new height is specified, this process is exited.

なお、本実施形態では、実際の試合を撮影した実カメラの映像をサンプル画像として用いたが、例えば、練習中の映像やスタジオで撮影したポートレートなどを用いても良いし、コンピュータグラフィックスを用いて、人物をレンダリングした画像を用いてもよい。また、解像度を確認できれば良いので、実際のオブジェクトとは別のオブジェクトを用いた画像をサンプル画像としても構わない。   In this embodiment, the video of the actual camera that shot the actual game was used as the sample image. However, for example, a video that is being practiced, a portrait shot in the studio, or the like may be used. In addition, an image obtained by rendering a person may be used. Further, since it is sufficient if the resolution can be confirmed, an image using an object different from the actual object may be used as the sample image.

以上が、本実施形態に係る仮想カメラの高さ調整処理の内容である。本実施形態の場合、仮想カメラの高さを編集する際に、指定した高さ編集点における高さの下限値に対応するサンプル画像が可視化されて表示されるため、ユーザはより適切な高さを判断し易くなる。   The above is the content of the height adjustment process of the virtual camera according to the present embodiment. In the case of this embodiment, when editing the height of the virtual camera, the sample image corresponding to the lower limit value of the height at the specified height editing point is visualized and displayed. It becomes easy to judge.

実施形態3Embodiment 3

実施形態1では、仮想カメラのパラメータ設定用GUI画面上にカメラ群毎の共通撮影領域を可視化してフィールドマップ上に投影することで、カメラパス等を適切に設定できるようにした。次に、オブジェクトの解像度合いが急激に変動する領域をユーザが確認できるようにする態様について、実施形態3として説明する。   In the first embodiment, a common imaging area for each camera group is visualized on the GUI screen for parameter setting of the virtual camera and projected onto the field map, so that the camera path and the like can be set appropriately. Next, a mode in which the user can check a region where the resolution of the object rapidly changes will be described as a third embodiment.

基本的なシステム構成や仮想視点映像生成処理の大まかな流れは実施形態1と同一であるため説明を省略し、以下では差異点を中心に説明する。   Since the basic system configuration and the general flow of the virtual viewpoint video generation processing are the same as those in the first embodiment, the description thereof will be omitted, and the following description will focus on the differences.

図12は、本実施形態に係る、注視点パスの設定処理(前述のステップ702に相当)の詳細を示したフローチャートである。   FIG. 12 is a flowchart showing details of the gaze point path setting process (corresponding to step 702 described above) according to the present embodiment.

ステップ1201では、注視点の指定を受け付けた後に、注視点パスを探索する。これは注視点の座標値がどのカメラ群の撮影領域を移動するかを調査する処理である。次に、ステップ1202では、探索によって判明した注視点パスが、複数のカメラ群の撮影領域を交差するかどうかを判定する。図13は、この交差判定を説明する図である。図13の例では、広角カメラ群撮影領域602から開始した注視点パス812が、ズームカメラ群撮影領域601を通過し、再び広角カメラ群撮影領域602に戻っている。よって、この場合は交差していると判定されることになる。このように交差しているとの判定結果の場合はステップ1203に進む。一方、交差していないとの判定結果の場合は、本処理を終了する。ステップ1203では、図13に示すように、解像度の段差マーク1301を、撮影領域と注視点パスとが交差する座標位置に表示する。これは、指定された注視点が、複数のカメラ群の撮影領域を跨ぐように移動することで、カメラの焦点距離が変化する段差マーク1301近辺で解像感が急激に変動する可能性があり、それをユーザに警告するためである。このような場合、段差マーク1301近辺では、仮想カメラを注視点から遠ざける等の処置をユーザは取る必要がある。   In step 1201, after the designation of the gazing point is accepted, the gazing point path is searched. This is a process for investigating which camera group the photographing area of which the coordinate value of the gazing point moves. Next, in step 1202, it is determined whether or not the gazing point path determined by the search intersects the imaging areas of a plurality of camera groups. FIG. 13 is a diagram for explaining this intersection determination. In the example of FIG. 13, the gazing point path 812 starting from the wide-angle camera group shooting area 602 passes through the zoom camera group shooting area 601 and returns to the wide-angle camera group shooting area 602 again. Therefore, in this case, it is determined that they intersect. In the case of the determination result that the vehicle intersects in this way, the process proceeds to step 1203. On the other hand, in the case of a determination result that there is no intersection, the present process is terminated. In step 1203, as shown in FIG. 13, a resolution step mark 1301 is displayed at the coordinate position where the imaging region and the gazing point path intersect. This is because the designated gaze point moves so as to straddle the imaging areas of a plurality of camera groups, and the resolution may suddenly fluctuate near the step mark 1301 where the focal length of the camera changes. This is to warn the user of this. In such a case, the user needs to take measures such as moving the virtual camera away from the point of sight near the step mark 1301.

以上が、本実施形態に係る解像感変動の警告処理の内容である。本実施形態の場合、仮想カメラや注視点パスを編集する際に、仮想視点映像の解像感の変動が可視化されるため、ユーザはより適切な仮想カメラや注視点のパス設定を判断し易くなる。   The above is the content of the resolution change warning process according to the present embodiment. In the case of this embodiment, when editing a virtual camera or a gazing point path, a change in resolution of the virtual viewpoint video is visualized, so that the user can easily determine a more appropriate virtual camera or gazing point path setting. Become.

なお、上記の実施形態1〜3においては、画像処理装置100が仮想カメラ(仮想視点)の設定用GUIの生成、当該GUIの表示、当該GUIに対するユーザ操作の受け付け、及び、仮想視点映像の生成のすべてを行う例を説明した。しかし、この例に限らない。例えば、GUIの生成・表示とユーザ操作の受け付けを行う装置と、当該ユーザ操作に基づいて仮想視点映像を生成する装置が別々の装置であっても良い。また、GUIの生成を行う(典型的には1台の)装置と、GUIの表示及びユーザ操作を受け付ける複数の装置と、仮想視点映像を生成する1又は複数の装置とを有する仮想視点映像システムに本発明を適用することも可能である。   In the first to third embodiments, the image processing apparatus 100 generates a virtual camera (virtual viewpoint) setting GUI, displays the GUI, accepts a user operation on the GUI, and generates a virtual viewpoint video. An example of doing all of this was explained. However, it is not limited to this example. For example, a device that generates and displays a GUI and accepts a user operation and a device that generates a virtual viewpoint video based on the user operation may be different devices. In addition, a virtual viewpoint video system including a device that generates a GUI (typically one device), a plurality of devices that accept GUI display and user operations, and one or a plurality of devices that generate a virtual viewpoint video. The present invention can also be applied to.

また、上述の実施形態1〜3では、ズームカメラ群109に属するすべてのカメラの撮影領域が重複する共通撮影領域と、広角カメラ群110に属するすべてのカメラの撮影領域が重複する共通撮影領域とを識別可能に表示させる例を中心に説明した。しかしこの例に限らない。例えば、ズームカメラ群109に属する12台のカメラのうち、10台以上のカメラの撮影領域が重複している領域を共通撮影領域としても良い。   In Embodiments 1 to 3 described above, a common shooting area where the shooting areas of all the cameras belonging to the zoom camera group 109 overlap, and a common shooting area where the shooting areas of all the cameras belonging to the wide-angle camera group 110 overlap. The description has been made centering on an example of displaying such that it can be identified. However, it is not limited to this example. For example, out of 12 cameras belonging to the zoom camera group 109, an area in which the imaging areas of 10 or more cameras overlap may be set as the common imaging area.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (14)

複数視点映像を用いて、仮想カメラから見た映像である仮想視点映像を生成する画像処理装置であって、
同程度の画角を有する複数の実カメラで構成されるカメラ群毎に、当該複数の実カメラに共通する撮影領域を導出する導出手段と、
前記仮想カメラに関するパラメータを、GUIを介したユーザ入力に基づいて設定する設定手段と、
を備え、
前記GUIには、前記導出手段で導出された前記カメラ群毎の撮影領域が認識可能に表示される
ことを特徴とする画像処理装置。
An image processing device that generates a virtual viewpoint video that is a video viewed from a virtual camera using a plurality of viewpoint videos,
Deriving means for deriving an imaging region common to the plurality of real cameras for each camera group composed of a plurality of real cameras having the same angle of view;
Setting means for setting parameters relating to the virtual camera based on user input via a GUI;
With
The image processing apparatus characterized in that the GUI displays a recognizable shooting area for each camera group derived by the deriving unit.
前記GUIには、仮想視点映像の生成が不可能な領域が認識可能に表示されることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein an area where a virtual viewpoint video cannot be generated is displayed recognizable on the GUI. 前記GUIにおいて、前記カメラ群毎の撮影領域は、前記複数視点映像の撮影空間全体に対応するフィールドマップ上に投影されて表示されることを特徴とする請求項1又は2に記載の画像処理装置。   3. The image processing apparatus according to claim 1, wherein in the GUI, an imaging region for each camera group is projected and displayed on a field map corresponding to the entire imaging space of the multi-view video. . 各カメラ群に属する各カメラの画角の情報を少なくとも含むカメラ情報を取得する取得手段をさらに備え、
前記導出手段は、取得された前記カメラ情報に基づいて、カメラ群毎の撮影領域の導出を行う
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
Further comprising an acquisition means for acquiring camera information including at least information of an angle of view of each camera belonging to each camera group,
The image processing apparatus according to claim 1, wherein the deriving unit derives a shooting area for each camera group based on the acquired camera information.
前記カメラ情報を予め保持する記憶手段をさらに備え、
前記取得手段は、前記カメラ情報を前記記憶手段から取得する
ことを特徴とする請求項4に記載の画像処理装置。
It further comprises storage means for previously holding the camera information,
The image processing apparatus according to claim 4, wherein the acquisition unit acquires the camera information from the storage unit.
各カメラ群を構成する複数の実カメラはネットワークを介して接続されており、
前記取得手段は、前記ネットワークを介して前記実カメラにアクセスして前記カメラ情報を取得する
ことを特徴とする請求項4に記載の画像処理装置。
The multiple real cameras that make up each camera group are connected via a network,
The image processing apparatus according to claim 4, wherein the acquisition unit acquires the camera information by accessing the real camera via the network.
前記パラメータとしての仮想カメラの高さを調整する場合、前記GUIには、高さの下限値に対応する仮想視点映像のサンプル画像がさらに表示されることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   4. When adjusting the height of the virtual camera as the parameter, a sample image of a virtual viewpoint video corresponding to a lower limit value of the height is further displayed on the GUI. The image processing apparatus according to claim 1. 前記GUIにおいて、前記下限値を下回る高さが指定された場合、前記下限値を下回っていることを示す警告表示がなされることを特徴とする請求項4に記載の画像処理装置。   5. The image processing apparatus according to claim 4, wherein, when a height lower than the lower limit value is designated in the GUI, a warning display indicating that the height is lower than the lower limit value is performed. 前記警告表示と共に、前記サンプル画像が前記下限値を下回る高さに応じた画像に更新されることを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the sample image is updated to an image corresponding to a height lower than the lower limit value together with the warning display. 前記サンプル画像は、
実カメラ映像においてオブジェクト領域の解像度が最も高いフレームから生成し、
その表示時に、仮想カメラとオブジェクトとの間の距離及び仮想カメラの画角の少なくとも一方に合わせて縮小する
ことを特徴とする請求項7に記載の画像処理装置。
The sample image is
Generate from the frame with the highest resolution of the object area in the real camera video,
The image processing apparatus according to claim 7, wherein at the time of the display, the image processing apparatus is reduced according to at least one of a distance between the virtual camera and the object and an angle of view of the virtual camera.
前記サンプル画像は、オブジェクト毎に生成することを特徴とする請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the sample image is generated for each object. 前記仮想カメラの注視点パスを設定する際に、注視点の経路がカメラ群毎の撮影領域と交差する場合、解像感が変動する旨の警告表示を行うことを特徴とする請求項1に記載の画像処理装置。   2. When setting the gazing point path of the virtual camera, if the gazing point path intersects a shooting area for each camera group, a warning display to the effect that the resolution changes is performed. The image processing apparatus described. 複数視点映像を用いて、仮想カメラから見た映像である仮想視点映像を生成する画像処理装置におけるGUIの制御方法であって、
同程度の画角を有する複数の実カメラで構成されるカメラ群毎に、当該複数の実カメラに共通する撮影領域を導出する導出ステップと、
前記仮想カメラに関するパラメータを、GUIを介したユーザ入力に基づいて設定する設定ステップと、
を含み、
前記GUIには、前記導出ステップで導出された前記カメラ群毎の撮影領域が認識可能に表示される
ことを特徴とする制御方法。
A GUI control method in an image processing apparatus that generates a virtual viewpoint video that is a video viewed from a virtual camera using a plurality of viewpoint videos,
A derivation step for deriving an imaging region common to the plurality of real cameras for each camera group composed of a plurality of real cameras having the same angle of view;
A setting step for setting a parameter related to the virtual camera based on a user input via a GUI;
Including
The control method, wherein the GUI displays a recognizable shooting area for each camera group derived in the deriving step.
コンピュータを、請求項1乃至6のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   The program for functioning a computer as an image processing apparatus of any one of Claims 1 thru | or 6.
JP2017246040A 2017-01-06 2017-12-22 Image processing equipment, image processing methods and programs Active JP7073092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/860,768 US10970915B2 (en) 2017-01-06 2018-01-03 Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017001042 2017-01-06
JP2017001042 2017-01-06

Publications (3)

Publication Number Publication Date
JP2018113683A true JP2018113683A (en) 2018-07-19
JP2018113683A5 JP2018113683A5 (en) 2021-02-12
JP7073092B2 JP7073092B2 (en) 2022-05-23

Family

ID=62912594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017246040A Active JP7073092B2 (en) 2017-01-06 2017-12-22 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP7073092B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110910482A (en) * 2019-11-29 2020-03-24 四川航天神坤科技有限公司 Method, system and readable storage medium for organizing and scheduling video data
JP2021056767A (en) * 2019-09-30 2021-04-08 キヤノン株式会社 Image generation system, image processing device, information processing device, image generation method, and program
WO2021152955A1 (en) * 2020-01-30 2021-08-05 富士フイルム株式会社 Information processing device, information processing method, and program
CN113364975A (en) * 2021-05-10 2021-09-07 荣耀终端有限公司 Image fusion method and electronic equipment
JP2022512499A (en) * 2018-12-14 2022-02-04 キヤノン株式会社 Methods and equipment for virtual images
JP2023522654A (en) * 2020-05-11 2023-05-31 株式会社ソニー・インタラクティブエンタテインメント User selection of virtual camera positions to generate video using synthetic input from multiple cameras
JP7775526B1 (en) * 2025-09-01 2025-11-25 株式会社 日立産業制御ソリューションズ Image synthesis device, image synthesis method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005348307A (en) * 2004-06-07 2005-12-15 Olympus Corp Image generating method and image generating device
JP2012109719A (en) * 2010-11-16 2012-06-07 Canon Inc Video processing device and control method therefor
JP2015076062A (en) * 2013-10-11 2015-04-20 富士通テン株式会社 Image display device, image display system, image display method, and program
JP2016066322A (en) * 2014-09-26 2016-04-28 富士通テン株式会社 Image processor and image display system
WO2016208562A1 (en) * 2015-06-26 2016-12-29 京セラ株式会社 Electronic device, electronic device actuating method, and control program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005348307A (en) * 2004-06-07 2005-12-15 Olympus Corp Image generating method and image generating device
JP2012109719A (en) * 2010-11-16 2012-06-07 Canon Inc Video processing device and control method therefor
JP2015076062A (en) * 2013-10-11 2015-04-20 富士通テン株式会社 Image display device, image display system, image display method, and program
JP2016066322A (en) * 2014-09-26 2016-04-28 富士通テン株式会社 Image processor and image display system
WO2016208562A1 (en) * 2015-06-26 2016-12-29 京セラ株式会社 Electronic device, electronic device actuating method, and control program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022512499A (en) * 2018-12-14 2022-02-04 キヤノン株式会社 Methods and equipment for virtual images
JP7208400B2 (en) 2018-12-14 2023-01-18 キヤノン株式会社 Method and apparatus for virtual images
JP7458731B2 (en) 2019-09-30 2024-04-01 キヤノン株式会社 Image generation system, image processing device, information processing device, image generation method, and program
JP2021056767A (en) * 2019-09-30 2021-04-08 キヤノン株式会社 Image generation system, image processing device, information processing device, image generation method, and program
CN110910482B (en) * 2019-11-29 2023-10-31 四川航天神坤科技有限公司 Method, system and readable storage medium for video data organization and scheduling
CN110910482A (en) * 2019-11-29 2020-03-24 四川航天神坤科技有限公司 Method, system and readable storage medium for organizing and scheduling video data
US12513276B2 (en) 2020-01-30 2025-12-30 Fujifilm Corporation Information processing apparatus, information processing method, and program
WO2021152955A1 (en) * 2020-01-30 2021-08-05 富士フイルム株式会社 Information processing device, information processing method, and program
JP7397890B2 (en) 2020-01-30 2023-12-13 富士フイルム株式会社 Information processing device, information processing method, and program
JPWO2021152955A1 (en) * 2020-01-30 2021-08-05
JP2023522654A (en) * 2020-05-11 2023-05-31 株式会社ソニー・インタラクティブエンタテインメント User selection of virtual camera positions to generate video using synthetic input from multiple cameras
JP7462069B2 (en) 2020-05-11 2024-04-04 株式会社ソニー・インタラクティブエンタテインメント User selection of virtual camera positions for generating video using composite input from multiple cameras
WO2022237286A1 (en) * 2021-05-10 2022-11-17 荣耀终端有限公司 Image fusion method and electronic device
CN113364975B (en) * 2021-05-10 2022-05-20 荣耀终端有限公司 Image fusion method and electronic equipment
US12136195B2 (en) 2021-05-10 2024-11-05 Honor Device Co., Ltd. Image fusion method and electronic device
CN113364975A (en) * 2021-05-10 2021-09-07 荣耀终端有限公司 Image fusion method and electronic equipment
JP7775526B1 (en) * 2025-09-01 2025-11-25 株式会社 日立産業制御ソリューションズ Image synthesis device, image synthesis method, and program

Also Published As

Publication number Publication date
JP7073092B2 (en) 2022-05-23

Similar Documents

Publication Publication Date Title
US10970915B2 (en) Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium
JP7073092B2 (en) Image processing equipment, image processing methods and programs
US10916048B2 (en) Image processing apparatus, image processing method, and storage medium
US10762653B2 (en) Generation apparatus of virtual viewpoint image, generation method, and storage medium
CN108510595B (en) Image processing apparatus, image processing method, and storage medium
KR102187974B1 (en) Information processing apparatus, method, and program for generation of virtual viewpoint images
CN109660783B (en) Virtual reality parallax correction
KR102387891B1 (en) Image processing apparatus, control method of image processing apparatus, and computer-readable storage medium
US10785469B2 (en) Generation apparatus and method for generating a virtual viewpoint image
CN109816766A (en) Image processing apparatus, image processing method and storage medium
JP2019083402A (en) Image processing apparatus, image processing system, image processing method, and program
JP7027049B2 (en) Image processing equipment, image processing methods and programs
JP6110780B2 (en) Additional information display system
CN111466113A (en) Apparatus and method for image capture
JP2019144958A (en) Image processing device, image processing method, and program
US11127141B2 (en) Image processing apparatus, image processing method, and a non-transitory computer readable storage medium
KR20180123302A (en) Method and Apparatus for Visualizing a Ball Trajectory
KR20110088995A (en) Method and system for visualizing surveillance camera image in three-dimensional model, and recording medium
JP2013027023A (en) Image processing device and image processing method, and program
JP6348318B2 (en) Image processing apparatus, method, and program
US12095964B2 (en) Information processing apparatus, information processing method, and storage medium
CN115209044B (en) Methods for forming images of objects, computer program products, and image forming systems
JP2019145894A (en) Image processing device, image processing method, and program
JP7665333B2 (en) Information processing device, information processing method, and program
JP6351364B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220511

R151 Written notification of patent or utility model registration

Ref document number: 7073092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151