JP2018113683A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2018113683A JP2018113683A JP2017246040A JP2017246040A JP2018113683A JP 2018113683 A JP2018113683 A JP 2018113683A JP 2017246040 A JP2017246040 A JP 2017246040A JP 2017246040 A JP2017246040 A JP 2017246040A JP 2018113683 A JP2018113683 A JP 2018113683A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image processing
- processing apparatus
- virtual
- gui
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Generation (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】仮想カメラの経路設定において、生成される仮想視点映像におけるオブジェクトの解像度合いをユーザが事前に把握できるようにする。
【解決手段】複数視点映像を用いて、仮想カメラから見た映像である仮想視点映像を生成する画像処理装置であって、同程度の画角を有する複数の実カメラで構成されるカメラ群毎に、当該複数の実カメラに共通する撮影領域を導出する導出手段と、前記仮想カメラに関するパラメータを、GUIを介したユーザ入力に基づいて設定する設定手段と、を備え、前記GUIには、前記導出手段で導出された前記カメラ群毎の撮影領域が認識可能に表示されることを特徴とする。
【選択図】図4In setting a path of a virtual camera, a user can grasp in advance the resolution of an object in a generated virtual viewpoint video.
An image processing apparatus that generates a virtual viewpoint video that is a video viewed from a virtual camera using a plurality of viewpoint videos, and each camera group including a plurality of real cameras having the same angle of view. In addition, a derivation unit that derives an imaging region common to the plurality of real cameras, and a setting unit that sets a parameter related to the virtual camera based on a user input via a GUI, the GUI includes the The imaging area for each camera group derived by the deriving means is displayed in a recognizable manner.
[Selection] Figure 4
Description
本発明は、仮想視点に関するパラメータを設定する技術に関する。 The present invention relates to a technique for setting parameters relating to a virtual viewpoint.
複数台の実カメラで撮影した映像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの映像を再現する技術として、仮想視点映像技術がある。仮想視点映像の生成においては、実カメラで撮影された映像間の死角によって仮想カメラからの映像を再現できない領域が存在する。また、仮想カメラが実カメラよりも撮影シーン内の人物等(オブジェクト)に近づいた場合は、オブジェクトの解像度合いが低下するためボケた映像となる。これらを考慮せずに、仮想カメラの経路(時間軸に沿った仮想カメラの位置移動)を設定すると、得られる仮想視点映像は低画質なものになってしまう。そのため、出来上がった仮想視点映像をプレビュー画面等で確認し、仮想カメラの経路設定を幾度となくやり直す(再設定する)ことになる可能性がある。 Virtual viewpoint video technology is a technology for reproducing video from a camera (virtual camera) that does not actually exist and is virtually arranged in a three-dimensional space using videos taken by a plurality of real cameras. In the generation of the virtual viewpoint video, there is an area where the video from the virtual camera cannot be reproduced due to the blind spot between the videos taken by the real camera. Further, when the virtual camera is closer to a person or the like (object) in the shooting scene than the real camera, the resolution of the object is reduced, resulting in a blurred image. If the path of the virtual camera (positional movement of the virtual camera along the time axis) is set without taking these into consideration, the obtained virtual viewpoint video has low image quality. Therefore, there is a possibility that the completed virtual viewpoint video is confirmed on the preview screen or the like, and the virtual camera path setting is repeated (reset) several times.
この点、例えば実カメラで撮影した映像間での死角の情報をユーザに提示するという技術が提案されている(特許文献1)。この特許文献1の技術においては、死角領域や観察者に見せたくない領域を2Dマップ上に可視化することで、実際に仮想視点映像を生成せずとも、事前に死角領域を確認することを可能にしていた。
In this regard, for example, a technique has been proposed in which information on blind spots between videos taken with a real camera is presented to the user (Patent Document 1). In the technique of this
しかしながら、上記特許文献1の手法では、仮想視点の設定前に仮想視点の位置と仮想視点映像の品質の対応関係を確認することができなかった。そこで本発明では、仮想視点の設定前に仮想視点の位置と仮想視点映像の品質の対応関係を確認することができるようにする。これにより、仮想カメラの経路設定のやり直し作業を抑制することを目的とする。
However, with the method of
本発明に係る画像処理装置は、複数視点映像を用いて、仮想カメラから見た映像である仮想視点映像を生成する画像処理装置であって、同程度の 画角を有する複数の実カメラで構成されるカメラ群毎に、当該複数の実カメラに共通する撮影領域を導出する導出手段と、前記仮想カメラに関するパラメータを、GUIを介したユーザ入力に基づいて設定する設定手段と、を備え、前記GUIには、前記導出手段で導出された前記カメラ群毎の撮影領域が認識可能に表示されることを特徴とする。 An image processing apparatus according to the present invention is an image processing apparatus that generates a virtual viewpoint video, which is a video viewed from a virtual camera, using a plurality of viewpoint videos, and includes a plurality of real cameras having the same angle of view. For each camera group, a derivation unit for deriving an imaging region common to the plurality of real cameras, and a setting unit for setting a parameter related to the virtual camera based on a user input via a GUI, The GUI is characterized in that an imaging region for each camera group derived by the deriving means is displayed in a recognizable manner.
本発明によれば、仮想カメラの経路設定において、出来上がった仮想視点映像におけるオブジェクトの解像度合いをユーザは事前に把握することができる。これにより、仮想カメラの経路設定のやり直し作業が抑制される。 According to the present invention, in setting a route of a virtual camera, a user can grasp in advance the resolution of an object in a completed virtual viewpoint video. As a result, the reworking of the virtual camera path setting is suppressed.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention, and all the combinations of features described in the present embodiment are not necessarily essential to the solution means of the present invention. In addition, about the same structure, the same code | symbol is attached | subjected and demonstrated.
図1は、本実施形態における、仮想視点映像システムの構成の一例を示す図である。図1に示す仮想視点映像システムは、画像処理装置100と2種類のカメラ群109及び110とで構成される。そして、画像処理装置100は、CPU101、メインメモリ102、記憶部103、入力部104、表示部105、外部I/F106を備え、各部がバス107を介して接続されている。まず、CPU101は、画像処理装置100を統括的に制御する演算処理装置であり、記憶部103等に格納された各種プログラムを実行して様々な処理を行う。メインメモリ102は、各種処理で用いるデータやパラメータなどを一時的に格納するほか、CPU101に作業領域を提供する。記憶部103は、各種プログラムやGUI(グラフィカル・ユーザ・インターフェイス)表示に必要な各種データを記憶する大容量記憶装置で、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。入力部104は、キーボードやマウス、電子ペン、タッチパネル等の装置であり、様々なユーザ入力を受け付ける。表示部105は、液晶パネルなどで構成され、仮想視点映像生成時の仮想カメラの経路設定のためのGUI表示などを行う。外部I/F部106は、カメラ群109及び110を構成する各カメラとネットワーク(ここではLAN108)を介して接続され、映像データや制御信号データの送受信を行う。バス107は上述の各部を接続し、データ転送を行う。
FIG. 1 is a diagram illustrating an example of a configuration of a virtual viewpoint video system in the present embodiment. The virtual viewpoint video system shown in FIG. 1 includes an
上記2種類のカメラ群は、それぞれズームカメラ群109と広角カメラ群110である。ズームカメラ群109は、画角の狭いレンズ(例えば10度)を搭載した複数台のカメラで構成されている。広角カメラ群110は、画角の広いレンズ(例えば45度)を搭載した複数台のカメラで構成されている。そして、ズームカメラ群109及び広角カメラ群110を構成している各カメラはLAN108経由で画像処理装置100に接続されている。また、ズームカメラ群109及び広角カメラ群110は画像処理装置100からの制御信号をもとに、撮影の開始と停止、カメラ設定(シャッタースピード、絞りなど)の変更、撮影した映像データの転送を行う。
The two types of camera groups are a
なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。 In addition to the above, there are various components of the system configuration, but the description is omitted because it is not the main point of the present invention.
図2(a)は、例えばサッカー等を行う競技場に、ズームカメラ群109と広角カメラ群110の2種類のカメラ群からなる撮像システムにおけるカメラ配置の一例を示した図である。競技を行うフィールド201上にはオブジェクト202としての選手が存在している。そして、ズームカメラ群109を構成する12台のズームカメラ203と広角カメラ群110を構成する12台の広角カメラ204がフィールド201を取り囲むように配置されている。図2(b)において点線で囲まれた領域213は、ズームカメラ203の撮影領域を示している。ズームカメラ203は画角が狭いため撮影領域は狭いが、オブジェクト202を撮影した際の解像度合いは高いという特性を持つ。また、図2(c)において点線で囲まれた領域214は、広角カメラ204の撮影領域を示している。広角カメラ204は画角が広いため撮影領域は広いが、オブジェクト202を撮影した際の解像度合いは低いという特性を持つ。なお、図2(b)では撮影領域の形状を便宜的に楕円で示しているが、後述のとおり各カメラの実際の撮影領域の形状は矩形・台形であるのが一般的である。
FIG. 2A is a diagram illustrating an example of camera arrangement in an imaging system including two types of camera groups, a
図3は、画像処理装置100において仮想視点映像が生成されるまでの全体の流れを示したフローチャートである。この一連の処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。
FIG. 3 is a flowchart showing the overall flow until the virtual viewpoint video is generated in the
ステップ301では、ズームカメラ群109及び広角カメラ群110に対して、撮影時の露光条件等の撮影パラメータと撮影開始の信号が送信される。各カメラ群に属する各カメラは、受信した撮影パラメータに従って撮影を開始し、得られた映像データを各カメラ内のメモリに保持する。
In step 301, shooting parameters such as exposure conditions during shooting and a shooting start signal are transmitted to the
ステップ302では、ズームカメラ群109に属する各ズームカメラ203によって撮影された複数視点映像データ及び広角カメラ群110に属する各広角カメラ204によって撮影された複数視点映像データが取得される。取得された複数視点(ここでは各12視点)の映像データは、メインメモリ102に展開される。
In step 302, multi-view video data captured by each
ステップ303では、ステップ302で取得した複数視点映像データを用いてオブジェクトの3次元形状の推定処理が実行される。推定手法としては、オブジェクトの輪郭情報を用いるVisual-hull手法や、三角測量を用いたMulti-view stereo手法など公知の手法を適用すればよい。
In
ステップ304では、推定したオブジェクト形状データに基づき、自由始点映像の生成に必要な仮想カメラの移動経路といった各種パラメータが設定される。仮想カメラのパラメータ設定に関する処理の詳細に関しては、後に詳述する。 In step 304, various parameters such as a moving path of the virtual camera necessary for generating the free start video are set based on the estimated object shape data. Details of processing related to the virtual camera parameter setting will be described later.
ステップ305では、設定された仮想カメラパラメータに従って、仮想視点映像が生成される。仮想視点映像は、推定されたオブジェクト形状に対して、設定された仮想カメラから見た映像をコンピュータグラフィックスの技術を用いることで生成することができる。 In step 305, a virtual viewpoint video is generated according to the set virtual camera parameters. The virtual viewpoint video can be generated by using a computer graphics technique for a video viewed from a set virtual camera with respect to the estimated object shape.
ステップ306では、仮想カメラのパラメータ設定を変更して新たな仮想視点映像を生成するかどうかが判定される。この処理は、不図示のプレビュー画面に表示された仮想視点映像を見て、その画質等を確認したユーザからの指示に基づいてなされる。ユーザが仮想視点映像を生成し直したいと考えた場合は、改めて仮想カメラに関するパラメータ設定を行なう(ステップ304に戻る。)。そして、パラメータを変更すると、変更後の内容で仮想視点映像が改めて生成される。一方、生成された仮想視点映像に問題がなければ本処理を終える。以上が、本実施形態に係る、仮想視点映像が生成されるまでの大まかな流れである。 In step 306, it is determined whether to change the parameter setting of the virtual camera to generate a new virtual viewpoint video. This process is performed based on an instruction from a user who has viewed the virtual viewpoint video displayed on a preview screen (not shown) and confirmed the image quality. If the user wants to regenerate the virtual viewpoint video, the parameter setting for the virtual camera is performed again (return to step 304). When the parameter is changed, a virtual viewpoint video is newly generated with the changed content. On the other hand, if there is no problem in the generated virtual viewpoint video, this process is finished. The above is a rough flow until the virtual viewpoint video is generated according to the present embodiment.
続いて、前述のステップ304における仮想カメラのパラメータ設定処理で使用するGUI画面の準備処理について説明する。図4は、仮想カメラのパラメータ設定に使用するGUI画面が生成される過程を示すフローチャートである。なお図4の処理は、図3で示す各処理に先駆けて実行されていても良いし、ステップ304が実行されるタイミングで実行されても良い。 Next, the preparation process of the GUI screen used in the virtual camera parameter setting process in the above-described step 304 will be described. FIG. 4 is a flowchart showing a process of generating a GUI screen used for parameter setting of the virtual camera. Note that the processing in FIG. 4 may be executed prior to each processing shown in FIG. 3 or may be executed at the timing at which step 304 is executed.
ステップ401では、すべてのカメラ群(ここではズームカメラ群と109と広角カメラ群110の2種類)のカメラ情報が取得される。カメラ情報には、各カメラ群に属するカメラの設置場所、注視点位置、画角といった情報が含まれる。本実施形態において注視点位置とは、24台のすべてのカメラの撮影の中心となる位置である。これらの情報は予め記憶部103に保持しておいたものを読み出して取得してもよいし、LAN108を介して各カメラ(或いは各カメラ群を代表する1台のカメラ)にアクセスして取得してもよい。
In step 401, camera information of all camera groups (here, two types of
ステップ402では、取得した各カメラ群のカメラ情報に基づいて、略同じ画角を有する複数のカメラの撮影領域が重複する領域(共通撮影領域)が、カメラ群単位で導出される。ここで、「略同じ」と表現しているのはカメラから注視点までの距離の差によってカメラ間で微細な画角の変動が発生するためである。なお、同じカメラ群に属する各カメラの画角は完全に同じでなくてもよい。図5は、カメラ群毎の共通撮影領域の導出方法を説明する図である。いま、フィールド201に対して同じカメラ群に属する2台のカメラ501と502が同じ注視点を向いて撮影を行っている。このとき、カメラ501とカメラ502が属するカメラ群の撮影領域は、カメラ501から注視点に向けた四角錐とフィールド201との交面511と、カメラ502から注視点に向けた四角錐とフィールド201との交面512とが重複する領域513として求められる。ここでは、説明の便宜上、カメラ501と502の2台で説明を行ったが、3台以上でも考え方は同じである。こうして、各カメラ群についての共通撮影領域が導出される。
In
ステップ403では、フィールド201を含む撮影空間全体の俯瞰図(フィールドマップ)上に、導出したカメラ群毎の共通撮影領域のそれぞれが認識可能な態様で可視化して投影される。図6は、フィールドマップ上に、カメラ群毎の共通撮影領域が認識可能に投影された結果の一例を示す図である。図6において、矩形の枠600がフィールドマップを示す。そして、破線の楕円601がズームカメラ群109の共通撮影領域(以下、ズームカメラ群撮影領域)を示している。ズームカメラ群撮影領域601内では、ズームカメラ群109で撮影した複数視点映像を用いた仮想視点映像の生成が可能である。ズームカメラ群撮影領域601内では、オブジェクトの解像度合いが相対的に高いため、仮想カメラをオブジェクトに近づけても(仮想カメラの高さを低くしても)、仮想視点映像の画質を維持することが可能である。本実施形態の場合、ズームカメラ群撮影領域601は、ズームカメラ群109に属する12台全てのズームカメラ203の撮影領域が重複する領域となっている。そして、一点鎖線の楕円602が広角カメラ群110の共通撮影領域(以下、広角カメラ群撮影領域)を示している。広角カメラ群撮影領域602内では、広角カメラ群110で撮影した複数視点映像を用いた仮想視点映像の生成が可能である。広角カメラ群撮影領域602内では、オブジェクトの解像度合いが相対的に低いため、仮想カメラをオブジェクトに一定以上近づける(仮想カメラの高さを一定以下に低くする)と、仮想視点映像の画質が悪化することになる。本実施形態の場合、広角カメラ群撮影領域602は、広角カメラ群110に属する12台全ての広角カメラ204の撮影領域が重複する領域となっている。また、フィールドマップ600内の斜線で示す領域603は、本実施形態において画角の広い広角カメラ群110に属する各広角カメラ204の撮影領域が重複せず、一定の品質の仮想視点映像生成が不可能な領域(以下、仮想視点映像生成不可領域)を示している。図6の例では、ズームカメラ群撮影領域と広角カメラ群撮影領域の外縁がそれぞれ破線と一点鎖線で示され、さらに仮想視点映像生成不可領域が斜線で示されているが、これに限定されない。仮想視点映像を生成可能なカメラ群毎の共通撮影領域がユーザに認識可能なように表示されていればよく、例えば色分けなどによって各領域を示してもよい。なお、図6では、説明の便宜上、各カメラ群の共通撮影領域の形状を楕円で示しているが、実際には多角形となる。このようにして、仮想カメラのパラメータ設定処理で使用するGUI画面の準備が整う。
In step 403, each of the derived common shooting areas for each camera group is visualized and projected on an overhead view (field map) of the entire shooting space including the
次に、本実施形態に係る、仮想カメラのパラメータ設定処理について、図7のフローを参照して説明する。図7の処理は、図3のステップ304の処理に対応する。まず、ステップ701では、仮想カメラのパラメータ設定用GUI画面が表示部105に表示される。図8は、GUI画面の一例を示す図である。図8(a)に示すGUI画面800では、前述の準備処理で得られたフィールドマップ600が画面左側に表示されており、その上に前述のステップ303で推定したオブジェクト形状810がマッピングされている。
Next, the virtual camera parameter setting process according to the present embodiment will be described with reference to the flowchart of FIG. The process in FIG. 7 corresponds to the process in step 304 in FIG. First, in
ステップ702では、表示されたGUI画面を介して、仮想カメラの移動経路(カメラパス)や注視点の移動経路(注視点パス)の指定を受け付ける。ユーザは、ボタン801又は803を押下した後、フィールドマップ600上でマウス等を操作してカーソルを移動することで、その移動軌跡をカメラパス又は注視点パスとして指定する。図8(a)において太線の矢印811は指定されたカメラパスを、点線の矢印812は指定された注視点パスを示している。このようにして指定されたカメラパスと注視点パスとは、設定フレームにおいて整合するように対応付けられている。つまり、仮想視点映像が例えば600フレームで構成されている場合、それぞれのパスをフレーム数で分割した各分割点を矢印の開始点から順に対応させておく。ユーザがカメラパス811上の任意の位置(座標)にカーソルを移動し、マウス等のクリック操作を行うと、カーソルに最も近い分割点P0を選択・表示し、P0に対応する注視点位置Q0も表示する。このとき、仮想カメラから見た画角領域813も同時に表示される。ユーザは注視点Q0、オブジェクト810、画角領域813の位置関係を把握することができるため、注視点Q0やオブジェクト810がズームカメラ群撮影領域601、広角カメラ群撮影領域602及び仮想視点映像生成不可領域603のうち、どの領域に収まるか、すなわち、仮想視点映像がどのような解像度になるかを確認しつつ指定作業を行うことができる。そのため、カメラパス等を適切に設定することができ、指定作業のやり直し回数を抑制することができる。なお、P0、Q0をマウス等で移動させることにより、パスの修正を行うことも可能である。また、仮想カメラパスのフィールド201からの高さはデフォルト値(例えば、15m)となり、注視点パスの高さは仮想カメラパスよりも低いデフォルト値(例えば、1m)を設定する。
In step 702, designation of a virtual camera movement path (camera path) and a gaze point movement path (gaze point path) is accepted via the displayed GUI screen. After the user presses the
ステップ703では、仮想カメラおよび注視点の高さ調整を行うか否かによって処理の切り分けがなされる。ユーザがカメラパス高さ編集ボタン802または、注視点パス高さ編集ボタン804を押下した場合は、ステップ704に進む。
In
ステップ704では、仮想カメラおよび注視点の高さを調整する処理(高さ調整処理)が実行される。ここでは、仮想カメラの高さを調整する処理を例に説明を行う。ユーザは、カメラパス811上の任意の位置(座標)にカーソルを移動し、マウス等のクリック操作を行うことによって、高さを変更したい仮想カメラの位置(高さ編集点)を指定する。ここでも、ステップ703と同様にカーソルに最も近い分割点を高さ編集点として選択・表示する。図8(b)において、カメラパス811上に×印で示された箇所が、ユーザによって指定された高さ編集点を示している。この高さ編集点は複数個設定することが可能である。図8(b)の例では、P1とP2の2つの高さ編集点が設定されており、それに合わせて、P1とP2と対応する注視点パス812上の点Q1、Q2を表示する。また、P1とQ1、P2とQ2を結ぶ距離をGUI上に表示する。これは、仮想カメラと注視点との距離によって仮想視点映像内のオブジェクトのサイズが変化するためである。距離が近い程、オブジェクトのサイズが大きくなり、ボケた映像になりやすくなる。図8(b)の場合、P1〜Q1間が24mで、P2〜Q2間が20mとなっており、P2〜Q2の方がよりボケやすい映像となる。高さ編集点が設定されると、GUI画面800内に高さ設定ウィンドウ820が表示され、ユーザは高さ設定ウィンドウ820内の各編集点に対応する入力欄821に任意の値(単位:m)を入力することによって当該位置における仮想カメラの高さを変更することができる。この際もユーザは、ズームカメラ群撮影領域601や広角カメラ群撮影領域602、仮想カメラと注視点との間の距離を確認しながら任意の値を指定できるため、仮想カメラの高さを適切に設定できる。なお、高さ編集点によって高度が変更された箇所以外の高さは、近接する位置の高さ編集点又はデフォルト値から補間して、高さが急激に変化しないように調整される。
In
以上が、本実施形態に係る仮想カメラのパラメータ設定処理の内容である。なお、本実施形態のGUI画面では、各カメラ群撮影領域を2次元で表示していたが、3次元表示してもよい。 The above is the content of the parameter setting process of the virtual camera according to the present embodiment. In the GUI screen of this embodiment, each camera group shooting area is displayed in two dimensions, but may be displayed in three dimensions.
以上のとおり本実施形態によれば、仮想カメラの移動経路や高さといったパラメータを、ユーザは各カメラ群の撮影領域を把握しながら設定することできる。これにより仮想視点映像生成時におけるパラメータ設定作業のやり直しを抑制することが可能となる。 As described above, according to the present embodiment, the user can set parameters such as the moving path and height of the virtual camera while grasping the imaging region of each camera group. As a result, it is possible to suppress redo of the parameter setting work when generating the virtual viewpoint video.
実施形態1では、仮想カメラのパラメータ設定用GUI画面上にカメラ群毎の共通撮影領域を可視化してフィールドマップ上に投影することで、カメラパス等を適切に設定できるようにした。次に、仮想カメラの高さ調整においてオブジェクトの解像度合いを直接的にユーザが確認できるようにする態様について、実施形態2として説明する。 In the first embodiment, a common imaging area for each camera group is visualized on the GUI screen for parameter setting of the virtual camera and projected onto the field map, so that the camera path and the like can be set appropriately. Next, a mode in which the user can directly check the resolution of the object in the height adjustment of the virtual camera will be described as a second embodiment.
基本的なシステム構成や自視点映像生成処理の大まかな流れは実施形態1と同一であるため説明を省略し、以下では差異点を中心に説明する。 Since the basic system configuration and the general flow of the self-viewpoint video generation process are the same as those in the first embodiment, the description thereof will be omitted, and the following description will focus on the differences.
図9は、本実施形態に係る、仮想カメラの高さ調整処理(前述のステップ704)の詳細を示したフローチャートである。 FIG. 9 is a flowchart showing details of the virtual camera height adjustment process (step 704 described above) according to the present embodiment.
ステップ901では、高さ編集点の指定を受け付ける。ここでも前述の図8(b)に示すようにP1とP2の2点が指定されたものとする。続くステップ902では、指定された高さ編集点における高さの下限値を取得する。高さの下限値とは、オブジェクトの解像度合いとして許容し得る最低限のレベルに対応する仮想カメラの高さを示し、仮想カメラと注視点との間の距離と、仮想カメラの画角、注視点の位置するカメラ群撮影領域の組合せで予め決定しておく。つまり、注視点が高解像度のカメラ群撮影領域に位置する場合、仮想カメラと注視点との間の距離を短くできるため、高さの下限値は低くなる。一方、注視点が低解像度のカメラ群撮影領域に位置する場合、高さの下限値は高くなる。また、画角が広い場合は高さ下限値が低くなり、画角が狭い場合は高さ下限値が高くなる。解像度合いが許容できるか否かは、例えば実カメラにおけるオブジェクトの解像度合いを下回るかどうかといった基準に依って判断される。高さ下限値の取得にあたっては、まず、指定された高さ編集点の注視点座標を取得し、当該座標に対応する各カメラ群撮影領域の分類情報、仮想カメラと注視点との間の距離及び仮想カメラの画角の情報を取得する。分類情報とは、座標位置毎に付与された、ズームカメラ群撮影領域601や広角カメラ群撮影領域602であることを示すフラグなどの情報を意味する。そして、取得したこれらの情報に基づき、指定された高さ編集点における仮想カメラの高さ下限値を取得する。
In step 901, designation of a height edit point is accepted. Here, it is assumed that two points P1 and P2 are designated as shown in FIG. In the subsequent step 902, the lower limit value of the height at the designated height editing point is acquired. The lower limit of the height indicates the height of the virtual camera corresponding to the minimum level acceptable as the resolution of the object, the distance between the virtual camera and the point of interest, the angle of view of the virtual camera, the note It is determined in advance by the combination of the camera group shooting area where the viewpoint is located. That is, when the gazing point is located in the high-resolution camera group photographing region, the distance between the virtual camera and the gazing point can be shortened, and thus the lower limit value of the height is lowered. On the other hand, when the gazing point is located in the low-resolution camera group photographing region, the lower limit value of the height is increased. When the angle of view is wide, the lower limit value of the height is lowered, and when the angle of view is narrow, the lower limit value of the height is increased. Whether or not the resolution is acceptable is determined based on a criterion such as whether or not the resolution is below the resolution of the object in the actual camera. When acquiring the lower height limit, first, obtain the gaze point coordinates of the specified height edit point, the classification information of each camera group shooting area corresponding to the coordinates, the distance between the virtual camera and the gaze point And information on the angle of view of the virtual camera. The classification information means information such as a flag that is given for each coordinate position and that indicates a zoom camera
ステップ903では、取得した高さ下限値に対応する仮想視点映像のサンプル画像を表示する。サンプル画像は、実カメラの映像からオブジェクトを切り出したものである。切り出し手法を、図11(a)及び(b)を用いて説明する。図11(a)は、ある実カメラで撮影した画像1101を示す。画像1101には、5人の選手に相当するオブジェクトA〜Eが写っている。この画像1101に対して、オブジェクトA〜Eのそれぞれの顔や背番号を既存の認識技術を用いて識別することで、オブジェクト毎にその領域を切り出したサンプル画像が得られる。得られたサンプル画像のデータは、その画素数(幅と高さ)の情報と共に記憶部103に保持する。図11(b)は、別の実カメラで撮影した画像1102を示す。この画像1102に対しても同様の処理を施してサンプル画像を取得する。そして、新たに作成したサンプル画像の画素数が、その前に作成したサンプル画像の画素数を上回るならば、新たに作成したサンプル画像で上書き(更新)するという処理を、オブジェクト単位で繰り返す。この処理を全ての実カメラで実行することにより、最も解像度の高いサンプル画像をオブジェクト毎に用意できる。サンプル画像を表示する際には、仮想カメラとオブジェクトとの距離、仮想カメラの画角に応じて、サンプル画像を縮小する。この縮小の方法を、図11(c)を用いて説明する。まず、注視点に最も近いオブジェクトを検出し、そのオブジェクトのサンプル画像のデータを記憶部103からメインメモリ102に読み込む。次に、仮想カメラとオブジェクトとの間の距離、仮想カメラの画角から、仮想視点映像におけるオブジェクト領域の画素数を算出する。具体的には、検出されたオブジェクトの位置に、選手の標準的な身長サイズの三次元モデル1122を配置し、仮想カメラ1121から見た場合のプレビュー画像1123を描画することで算出できる。そして、プレビュー画像1123におけるオブジェクト領域とサンプル画像の画素数(幅と高さ)とが一致・または近似値になるように、サンプル画像を縮小する。縮小後は、GUI画面800に表示するため、適切なサイズに単純補間で拡大する。サンプル画像は、例えば図10(a)に示すサブウインドウのような形式でGUI画面800上に表示する。これによりユーザは、高さを下限値まで下げた場合のオブジェクトの解像度合いを実際の画像で確認できる。このとき、図10(a)に示すように、対応する高さ下限値をサンプル画像と併せて表示すようにしてもよい。
In step 903, a sample image of the virtual viewpoint video corresponding to the acquired height lower limit value is displayed. The sample image is an object cut out from the video of the real camera. The clipping method will be described with reference to FIGS. 11 (a) and 11 (b). FIG. 11A shows an
ステップ904では、指定された高さ編集点について、高さ設定ウィンドウ820を介して入力された高さの変更を受け付ける。続くステップ905では、変更後の高さが、高さ下限値を下回っているかどうかを判定する。変更後の高さが下限値を下回っている場合は、ステップ906に進む。一方、変更後の高さが下限値以上の場合は、本処理を抜ける。
In step 904, a change in height input via the
ステップ906では、サンプル画像を変更後の高さに応じた内容、すなわち、許容の限界を超えた低解像度のサンプル画像に更新する。図10(b)は、更新後のサンプル画像の一例を示しており、高さ調整点P2に対応するサンプル画像がボケているのが分かる。この更新後のサンプル画像は、上述のステップ903と同様、設定後の仮想カメラと注視点との間の距離ならびに仮想カメラの画角に応じて、オブジェクト固有のサンプル画像を縮小・拡大表示したものである。この際、高さ下限値を下回ったことを示す、例えば「下限値を下回っています。」といったメッセージの表示(警告表示)を行ってもよい。続くステップ907では、高さの再変更の有無に応じて処理を切り替える。新たな高さの指定があった場合はステップ904に戻る。新たな高さの指定がなかった場合は本処理を抜ける。 In step 906, the sample image is updated to the content corresponding to the height after the change, that is, the sample image with a low resolution exceeding the allowable limit. FIG. 10B shows an example of the updated sample image, and it can be seen that the sample image corresponding to the height adjustment point P2 is blurred. This updated sample image is a reduced / enlarged display of the sample image unique to the object according to the distance between the virtual camera and the point of gaze after setting and the angle of view of the virtual camera, as in step 903 described above. It is. At this time, a message (warning display) indicating that the height is below the lower limit value, for example, “below the lower limit value” may be displayed. In the subsequent step 907, the processing is switched depending on whether or not the height is changed again. If a new height is designated, the process returns to step 904. If no new height is specified, this process is exited.
なお、本実施形態では、実際の試合を撮影した実カメラの映像をサンプル画像として用いたが、例えば、練習中の映像やスタジオで撮影したポートレートなどを用いても良いし、コンピュータグラフィックスを用いて、人物をレンダリングした画像を用いてもよい。また、解像度を確認できれば良いので、実際のオブジェクトとは別のオブジェクトを用いた画像をサンプル画像としても構わない。 In this embodiment, the video of the actual camera that shot the actual game was used as the sample image. However, for example, a video that is being practiced, a portrait shot in the studio, or the like may be used. In addition, an image obtained by rendering a person may be used. Further, since it is sufficient if the resolution can be confirmed, an image using an object different from the actual object may be used as the sample image.
以上が、本実施形態に係る仮想カメラの高さ調整処理の内容である。本実施形態の場合、仮想カメラの高さを編集する際に、指定した高さ編集点における高さの下限値に対応するサンプル画像が可視化されて表示されるため、ユーザはより適切な高さを判断し易くなる。 The above is the content of the height adjustment process of the virtual camera according to the present embodiment. In the case of this embodiment, when editing the height of the virtual camera, the sample image corresponding to the lower limit value of the height at the specified height editing point is visualized and displayed. It becomes easy to judge.
実施形態1では、仮想カメラのパラメータ設定用GUI画面上にカメラ群毎の共通撮影領域を可視化してフィールドマップ上に投影することで、カメラパス等を適切に設定できるようにした。次に、オブジェクトの解像度合いが急激に変動する領域をユーザが確認できるようにする態様について、実施形態3として説明する。 In the first embodiment, a common imaging area for each camera group is visualized on the GUI screen for parameter setting of the virtual camera and projected onto the field map, so that the camera path and the like can be set appropriately. Next, a mode in which the user can check a region where the resolution of the object rapidly changes will be described as a third embodiment.
基本的なシステム構成や仮想視点映像生成処理の大まかな流れは実施形態1と同一であるため説明を省略し、以下では差異点を中心に説明する。 Since the basic system configuration and the general flow of the virtual viewpoint video generation processing are the same as those in the first embodiment, the description thereof will be omitted, and the following description will focus on the differences.
図12は、本実施形態に係る、注視点パスの設定処理(前述のステップ702に相当)の詳細を示したフローチャートである。 FIG. 12 is a flowchart showing details of the gaze point path setting process (corresponding to step 702 described above) according to the present embodiment.
ステップ1201では、注視点の指定を受け付けた後に、注視点パスを探索する。これは注視点の座標値がどのカメラ群の撮影領域を移動するかを調査する処理である。次に、ステップ1202では、探索によって判明した注視点パスが、複数のカメラ群の撮影領域を交差するかどうかを判定する。図13は、この交差判定を説明する図である。図13の例では、広角カメラ群撮影領域602から開始した注視点パス812が、ズームカメラ群撮影領域601を通過し、再び広角カメラ群撮影領域602に戻っている。よって、この場合は交差していると判定されることになる。このように交差しているとの判定結果の場合はステップ1203に進む。一方、交差していないとの判定結果の場合は、本処理を終了する。ステップ1203では、図13に示すように、解像度の段差マーク1301を、撮影領域と注視点パスとが交差する座標位置に表示する。これは、指定された注視点が、複数のカメラ群の撮影領域を跨ぐように移動することで、カメラの焦点距離が変化する段差マーク1301近辺で解像感が急激に変動する可能性があり、それをユーザに警告するためである。このような場合、段差マーク1301近辺では、仮想カメラを注視点から遠ざける等の処置をユーザは取る必要がある。
In
以上が、本実施形態に係る解像感変動の警告処理の内容である。本実施形態の場合、仮想カメラや注視点パスを編集する際に、仮想視点映像の解像感の変動が可視化されるため、ユーザはより適切な仮想カメラや注視点のパス設定を判断し易くなる。 The above is the content of the resolution change warning process according to the present embodiment. In the case of this embodiment, when editing a virtual camera or a gazing point path, a change in resolution of the virtual viewpoint video is visualized, so that the user can easily determine a more appropriate virtual camera or gazing point path setting. Become.
なお、上記の実施形態1〜3においては、画像処理装置100が仮想カメラ(仮想視点)の設定用GUIの生成、当該GUIの表示、当該GUIに対するユーザ操作の受け付け、及び、仮想視点映像の生成のすべてを行う例を説明した。しかし、この例に限らない。例えば、GUIの生成・表示とユーザ操作の受け付けを行う装置と、当該ユーザ操作に基づいて仮想視点映像を生成する装置が別々の装置であっても良い。また、GUIの生成を行う(典型的には1台の)装置と、GUIの表示及びユーザ操作を受け付ける複数の装置と、仮想視点映像を生成する1又は複数の装置とを有する仮想視点映像システムに本発明を適用することも可能である。
In the first to third embodiments, the
また、上述の実施形態1〜3では、ズームカメラ群109に属するすべてのカメラの撮影領域が重複する共通撮影領域と、広角カメラ群110に属するすべてのカメラの撮影領域が重複する共通撮影領域とを識別可能に表示させる例を中心に説明した。しかしこの例に限らない。例えば、ズームカメラ群109に属する12台のカメラのうち、10台以上のカメラの撮影領域が重複している領域を共通撮影領域としても良い。
In
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Claims (14)
同程度の画角を有する複数の実カメラで構成されるカメラ群毎に、当該複数の実カメラに共通する撮影領域を導出する導出手段と、
前記仮想カメラに関するパラメータを、GUIを介したユーザ入力に基づいて設定する設定手段と、
を備え、
前記GUIには、前記導出手段で導出された前記カメラ群毎の撮影領域が認識可能に表示される
ことを特徴とする画像処理装置。 An image processing device that generates a virtual viewpoint video that is a video viewed from a virtual camera using a plurality of viewpoint videos,
Deriving means for deriving an imaging region common to the plurality of real cameras for each camera group composed of a plurality of real cameras having the same angle of view;
Setting means for setting parameters relating to the virtual camera based on user input via a GUI;
With
The image processing apparatus characterized in that the GUI displays a recognizable shooting area for each camera group derived by the deriving unit.
前記導出手段は、取得された前記カメラ情報に基づいて、カメラ群毎の撮影領域の導出を行う
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 Further comprising an acquisition means for acquiring camera information including at least information of an angle of view of each camera belonging to each camera group,
The image processing apparatus according to claim 1, wherein the deriving unit derives a shooting area for each camera group based on the acquired camera information.
前記取得手段は、前記カメラ情報を前記記憶手段から取得する
ことを特徴とする請求項4に記載の画像処理装置。 It further comprises storage means for previously holding the camera information,
The image processing apparatus according to claim 4, wherein the acquisition unit acquires the camera information from the storage unit.
前記取得手段は、前記ネットワークを介して前記実カメラにアクセスして前記カメラ情報を取得する
ことを特徴とする請求項4に記載の画像処理装置。 The multiple real cameras that make up each camera group are connected via a network,
The image processing apparatus according to claim 4, wherein the acquisition unit acquires the camera information by accessing the real camera via the network.
実カメラ映像においてオブジェクト領域の解像度が最も高いフレームから生成し、
その表示時に、仮想カメラとオブジェクトとの間の距離及び仮想カメラの画角の少なくとも一方に合わせて縮小する
ことを特徴とする請求項7に記載の画像処理装置。 The sample image is
Generate from the frame with the highest resolution of the object area in the real camera video,
The image processing apparatus according to claim 7, wherein at the time of the display, the image processing apparatus is reduced according to at least one of a distance between the virtual camera and the object and an angle of view of the virtual camera.
同程度の画角を有する複数の実カメラで構成されるカメラ群毎に、当該複数の実カメラに共通する撮影領域を導出する導出ステップと、
前記仮想カメラに関するパラメータを、GUIを介したユーザ入力に基づいて設定する設定ステップと、
を含み、
前記GUIには、前記導出ステップで導出された前記カメラ群毎の撮影領域が認識可能に表示される
ことを特徴とする制御方法。 A GUI control method in an image processing apparatus that generates a virtual viewpoint video that is a video viewed from a virtual camera using a plurality of viewpoint videos,
A derivation step for deriving an imaging region common to the plurality of real cameras for each camera group composed of a plurality of real cameras having the same angle of view;
A setting step for setting a parameter related to the virtual camera based on a user input via a GUI;
Including
The control method, wherein the GUI displays a recognizable shooting area for each camera group derived in the deriving step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/860,768 US10970915B2 (en) | 2017-01-06 | 2018-01-03 | Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017001042 | 2017-01-06 | ||
| JP2017001042 | 2017-01-06 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2018113683A true JP2018113683A (en) | 2018-07-19 |
| JP2018113683A5 JP2018113683A5 (en) | 2021-02-12 |
| JP7073092B2 JP7073092B2 (en) | 2022-05-23 |
Family
ID=62912594
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017246040A Active JP7073092B2 (en) | 2017-01-06 | 2017-12-22 | Image processing equipment, image processing methods and programs |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7073092B2 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110910482A (en) * | 2019-11-29 | 2020-03-24 | 四川航天神坤科技有限公司 | Method, system and readable storage medium for organizing and scheduling video data |
| JP2021056767A (en) * | 2019-09-30 | 2021-04-08 | キヤノン株式会社 | Image generation system, image processing device, information processing device, image generation method, and program |
| WO2021152955A1 (en) * | 2020-01-30 | 2021-08-05 | 富士フイルム株式会社 | Information processing device, information processing method, and program |
| CN113364975A (en) * | 2021-05-10 | 2021-09-07 | 荣耀终端有限公司 | Image fusion method and electronic equipment |
| JP2022512499A (en) * | 2018-12-14 | 2022-02-04 | キヤノン株式会社 | Methods and equipment for virtual images |
| JP2023522654A (en) * | 2020-05-11 | 2023-05-31 | 株式会社ソニー・インタラクティブエンタテインメント | User selection of virtual camera positions to generate video using synthetic input from multiple cameras |
| JP7775526B1 (en) * | 2025-09-01 | 2025-11-25 | 株式会社 日立産業制御ソリューションズ | Image synthesis device, image synthesis method, and program |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005348307A (en) * | 2004-06-07 | 2005-12-15 | Olympus Corp | Image generating method and image generating device |
| JP2012109719A (en) * | 2010-11-16 | 2012-06-07 | Canon Inc | Video processing device and control method therefor |
| JP2015076062A (en) * | 2013-10-11 | 2015-04-20 | 富士通テン株式会社 | Image display device, image display system, image display method, and program |
| JP2016066322A (en) * | 2014-09-26 | 2016-04-28 | 富士通テン株式会社 | Image processor and image display system |
| WO2016208562A1 (en) * | 2015-06-26 | 2016-12-29 | 京セラ株式会社 | Electronic device, electronic device actuating method, and control program |
-
2017
- 2017-12-22 JP JP2017246040A patent/JP7073092B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005348307A (en) * | 2004-06-07 | 2005-12-15 | Olympus Corp | Image generating method and image generating device |
| JP2012109719A (en) * | 2010-11-16 | 2012-06-07 | Canon Inc | Video processing device and control method therefor |
| JP2015076062A (en) * | 2013-10-11 | 2015-04-20 | 富士通テン株式会社 | Image display device, image display system, image display method, and program |
| JP2016066322A (en) * | 2014-09-26 | 2016-04-28 | 富士通テン株式会社 | Image processor and image display system |
| WO2016208562A1 (en) * | 2015-06-26 | 2016-12-29 | 京セラ株式会社 | Electronic device, electronic device actuating method, and control program |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022512499A (en) * | 2018-12-14 | 2022-02-04 | キヤノン株式会社 | Methods and equipment for virtual images |
| JP7208400B2 (en) | 2018-12-14 | 2023-01-18 | キヤノン株式会社 | Method and apparatus for virtual images |
| JP7458731B2 (en) | 2019-09-30 | 2024-04-01 | キヤノン株式会社 | Image generation system, image processing device, information processing device, image generation method, and program |
| JP2021056767A (en) * | 2019-09-30 | 2021-04-08 | キヤノン株式会社 | Image generation system, image processing device, information processing device, image generation method, and program |
| CN110910482B (en) * | 2019-11-29 | 2023-10-31 | 四川航天神坤科技有限公司 | Method, system and readable storage medium for video data organization and scheduling |
| CN110910482A (en) * | 2019-11-29 | 2020-03-24 | 四川航天神坤科技有限公司 | Method, system and readable storage medium for organizing and scheduling video data |
| US12513276B2 (en) | 2020-01-30 | 2025-12-30 | Fujifilm Corporation | Information processing apparatus, information processing method, and program |
| WO2021152955A1 (en) * | 2020-01-30 | 2021-08-05 | 富士フイルム株式会社 | Information processing device, information processing method, and program |
| JP7397890B2 (en) | 2020-01-30 | 2023-12-13 | 富士フイルム株式会社 | Information processing device, information processing method, and program |
| JPWO2021152955A1 (en) * | 2020-01-30 | 2021-08-05 | ||
| JP2023522654A (en) * | 2020-05-11 | 2023-05-31 | 株式会社ソニー・インタラクティブエンタテインメント | User selection of virtual camera positions to generate video using synthetic input from multiple cameras |
| JP7462069B2 (en) | 2020-05-11 | 2024-04-04 | 株式会社ソニー・インタラクティブエンタテインメント | User selection of virtual camera positions for generating video using composite input from multiple cameras |
| WO2022237286A1 (en) * | 2021-05-10 | 2022-11-17 | 荣耀终端有限公司 | Image fusion method and electronic device |
| CN113364975B (en) * | 2021-05-10 | 2022-05-20 | 荣耀终端有限公司 | Image fusion method and electronic equipment |
| US12136195B2 (en) | 2021-05-10 | 2024-11-05 | Honor Device Co., Ltd. | Image fusion method and electronic device |
| CN113364975A (en) * | 2021-05-10 | 2021-09-07 | 荣耀终端有限公司 | Image fusion method and electronic equipment |
| JP7775526B1 (en) * | 2025-09-01 | 2025-11-25 | 株式会社 日立産業制御ソリューションズ | Image synthesis device, image synthesis method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7073092B2 (en) | 2022-05-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10970915B2 (en) | Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium | |
| JP7073092B2 (en) | Image processing equipment, image processing methods and programs | |
| US10916048B2 (en) | Image processing apparatus, image processing method, and storage medium | |
| US10762653B2 (en) | Generation apparatus of virtual viewpoint image, generation method, and storage medium | |
| CN108510595B (en) | Image processing apparatus, image processing method, and storage medium | |
| KR102187974B1 (en) | Information processing apparatus, method, and program for generation of virtual viewpoint images | |
| CN109660783B (en) | Virtual reality parallax correction | |
| KR102387891B1 (en) | Image processing apparatus, control method of image processing apparatus, and computer-readable storage medium | |
| US10785469B2 (en) | Generation apparatus and method for generating a virtual viewpoint image | |
| CN109816766A (en) | Image processing apparatus, image processing method and storage medium | |
| JP2019083402A (en) | Image processing apparatus, image processing system, image processing method, and program | |
| JP7027049B2 (en) | Image processing equipment, image processing methods and programs | |
| JP6110780B2 (en) | Additional information display system | |
| CN111466113A (en) | Apparatus and method for image capture | |
| JP2019144958A (en) | Image processing device, image processing method, and program | |
| US11127141B2 (en) | Image processing apparatus, image processing method, and a non-transitory computer readable storage medium | |
| KR20180123302A (en) | Method and Apparatus for Visualizing a Ball Trajectory | |
| KR20110088995A (en) | Method and system for visualizing surveillance camera image in three-dimensional model, and recording medium | |
| JP2013027023A (en) | Image processing device and image processing method, and program | |
| JP6348318B2 (en) | Image processing apparatus, method, and program | |
| US12095964B2 (en) | Information processing apparatus, information processing method, and storage medium | |
| CN115209044B (en) | Methods for forming images of objects, computer program products, and image forming systems | |
| JP2019145894A (en) | Image processing device, image processing method, and program | |
| JP7665333B2 (en) | Information processing device, information processing method, and program | |
| JP6351364B2 (en) | Information processing apparatus, information processing method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201222 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201222 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210930 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211213 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220511 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7073092 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |