JP2019191528A - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP2019191528A JP2019191528A JP2018104862A JP2018104862A JP2019191528A JP 2019191528 A JP2019191528 A JP 2019191528A JP 2018104862 A JP2018104862 A JP 2018104862A JP 2018104862 A JP2018104862 A JP 2018104862A JP 2019191528 A JP2019191528 A JP 2019191528A
- Authority
- JP
- Japan
- Prior art keywords
- point
- gazing point
- interpolation line
- registered
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】本発明は、ユーザーの操作の手間を低減しつつ、全天球画像の注目領域をわかりやすく提示することができる情報処理装置を提供することを目的とする。【解決手段】本発明によれば、全天球画像から、ユーザーが指定する注視点を中心とした部分画像を生成する部分画像生成部と、生成された前記部分画像を表示するUI画面を介して前記注視点の登録を受け付けるUI部と、前記UI画面を介したユーザーの要求に応答して前記注視点を登録する注視点登録部と、直近に登録された前記注視点と現在指定されている前記注視点との間を補間する補間線を計算する補間線計算部と、登録された前記注視点とその直前に登録された前記注視点との間を補間する前記補間線を登録する補間線登録部とを含み、前記UI部は、前記補間線および登録された前記注視点を前記UI画面の前記部分画像の上に重畳表示する、情報処理装置が提供される。【選択図】図3An object of the present invention is to provide an information processing device capable of presenting a region of interest of a omnidirectional image in an easy-to-understand manner while reducing the time and effort required for user operation. According to the present invention, a partial image generation unit that generates a partial image centering on a gazing point designated by a user from a celestial sphere image, and a UI screen that displays the generated partial image. A registration unit for registering the gazing point, a gazing point registration unit for registering the gazing point in response to a user's request via the UI screen, and a gazing point registered most recently is currently designated. An interpolation line calculation unit that calculates an interpolation line that interpolates between the gazing point that is present and an interpolation line that interpolates between the registered gazing point and the gazing point registered immediately before that. An information processing apparatus including a line registration unit, wherein the UI unit superimposes and displays the interpolation line and the registered gazing point on the partial image of the UI screen is provided. [Selection diagram] Fig. 3
Description
本発明は、情報処理装置およびプログラムに関する。 The present invention relates to an information processing apparatus and a program.
近年、全天球カメラの普及に伴って、撮影地点の全方位を撮影した全天球画像を専用ビューワを用いて鑑賞する機会が増えてきている。ここで、全天球画像の専用ビューワとは、全天球画像を所定の3次元オブジェクトの表面にマッピングして3次元モデルを生成し、ユーザーの表示範囲変更操作(パン・チルト・ズーム)に応じて、全天球画像の3次元モデルの一部の領域を射影変換した2次元画像を表示するアプリケーションである。 In recent years, with the widespread use of omnidirectional cameras, there are increasing opportunities to view omnidirectional images obtained by photographing all azimuths of photographing points using a dedicated viewer. Here, the omnidirectional image dedicated viewer creates a 3D model by mapping the omnidirectional image onto the surface of a predetermined 3D object, and allows the user to change the display range (pan / tilt / zoom). Accordingly, this is an application for displaying a two-dimensional image obtained by projective transformation of a partial region of the three-dimensional model of the omnidirectional image.
ここで、従来の専用ビューワを使用して、全天球画像の中の注目領域を探索しようとする場合、ユーザーは、手動操作(パン・チルト・ズーム)を行って表示領域を変更しながら全天球画像の全体を目で追って確認しなければならなかった。 Here, when using a conventional dedicated viewer to search the attention area in the omnidirectional image, the user performs manual operations (pan / tilt / zoom) while changing the display area. I had to visually check the whole celestial sphere image.
この点につき、特開2015−18013号公報(特許文献1)は、全天球画像の中に含まれる注目領域を予めサムネイル化して一覧表示し、サムネイルが選択されたことに連動して、対応する注目領域を全体表示する表示制御装置を開示する。 Regarding this point, Japanese Patent Laid-Open No. 2015-18013 (Patent Document 1) displays a list of attention areas included in the omnidirectional image in advance as a thumbnail, and responds in conjunction with the selection of the thumbnail. Disclosed is a display control device that displays an entire region of interest.
特許文献1の表示制御装置によれば、全天球画像の注目領域を探索する手間が省けるが、一方で、サムネイルを手動で選択するという手間が依然として残り、その手間は、注目領域の数が増えるにつれて増える。 According to the display control device of Patent Document 1, the effort to search the attention area of the omnidirectional image can be saved, but on the other hand, the trouble of manually selecting the thumbnail remains, and the trouble is that the number of attention areas is the same. It increases as it increases.
本発明は、上記に鑑みてなされたものであり、ユーザーの操作の手間を低減しつつ、全天球画像の注目領域をわかりやすく提示することができる情報処理装置100を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information processing apparatus 100 capable of presenting an attention area of an omnidirectional image in an easy-to-understand manner while reducing a user's trouble of operation. To do.
本発明者は、ユーザーの操作の手間を低減しつつ、全天球画像の注目領域をわかりやすく提示することができる情報処理装置の構成につき鋭意検討した結果、以下の構成に想到し、本発明に至ったのである。 As a result of earnestly examining the configuration of the information processing apparatus capable of presenting the attention area of the omnidirectional image in an easy-to-understand manner while reducing the user's operation, the present inventors have conceived the following configuration, and It came to.
すなわち、本発明によれば、全天球画像から、ユーザーが指定する注視点を中心とした部分画像を生成する部分画像生成部と、生成された前記部分画像を表示するUI画面を介して前記注視点の登録を受け付けるUI部と、前記UI画面を介したユーザーの要求に応答して前記注視点を登録する注視点登録部と、直近に登録された前記注視点と現在指定されている前記注視点との間を補間する補間線を計算する補間線計算部と、登録された前記注視点とその直前に登録された前記注視点との間を補間する前記補間線を登録する補間線登録部とを含み、前記UI部は、前記補間線および登録された前記注視点を前記UI画面の前記部分画像の上に重畳表示する、情報処理装置が提供される。 That is, according to the present invention, the partial image generation unit that generates a partial image centered on the gazing point designated by the user from the omnidirectional image, and the UI screen that displays the generated partial image A UI unit that accepts registration of a gazing point, a gazing point registration unit that registers the gazing point in response to a user request via the UI screen, and the currently registered gazing point and the currently designated gazing point An interpolation line calculation unit that calculates an interpolation line that interpolates between the gazing point, and an interpolation line registration that registers the interpolation line that interpolates between the registered gazing point and the gazing point registered immediately before the gazing point. The information processing apparatus is provided, wherein the UI unit superimposes and displays the interpolation line and the registered gazing point on the partial image of the UI screen.
上述したように、本発明によれば、ユーザーの操作の手間を低減しつつ、全天球画像の注目領域をわかりやすく提示することができる情報処理装置が提供される。 As described above, according to the present invention, it is possible to provide an information processing apparatus capable of presenting an attention area of an omnidirectional image in an easy-to-understand manner while reducing a user's operation.
以下、本発明を、実施形態をもって説明するが、本発明は後述する実施形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。 Hereinafter, although this invention is demonstrated with embodiment, this invention is not limited to embodiment mentioned later. In the drawings referred to below, the same reference numerals are used for common elements, and the description thereof is omitted as appropriate.
以下、本発明の実施形態である情報処理装置について説明する。 Hereinafter, an information processing apparatus according to an embodiment of the present invention will be described.
本実施形態の情報処理装置は、全天球画像を表示するためのディスプレイを備える情報処理装置であり、スマートフォン、タブレットPC、ノートPC、デスクトップPCといった各種のパーソナル・コンピュータを例示することができる。 The information processing apparatus according to the present embodiment is an information processing apparatus that includes a display for displaying an omnidirectional image, and can exemplify various personal computers such as a smartphone, a tablet PC, a notebook PC, and a desktop PC.
本実施形態の情報処理装置には、全天球画像に含まれる任意の領域を連続的に表示するアニメーションを実行するためのアプリケーション・プログラム(以下、専用アプリという)がインストールされている。この専用アプリは、全天球画像の注視点を登録するためのUI画面を提供し、ユーザーは、このUI画面を介して、全天球画像を所定の3次元オブジェクトの表面(例えば、球体の内面)にマッピングした3次元モデルにおける任意の点を注視点として登録する。そして、この専用アプリは、ユーザーが登録した2以上の注視点の間を補間する経路に沿って注視点を遷移させ、遷移する注視点を中心とした部分画像を繋ぎ合わせたアニメーションを実行する。なお、本実施形態において、“部分画像”とは、全天球画像の3次元モデル上の任意の注視点を中心とする画像領域を射影変換した2次元画像を意味する。 In the information processing apparatus according to the present embodiment, an application program (hereinafter referred to as a dedicated application) for executing an animation for continuously displaying an arbitrary area included in the omnidirectional image is installed. This dedicated application provides a UI screen for registering the gazing point of the omnidirectional image, and the user can display the omnidirectional image on the surface of a predetermined three-dimensional object (for example, a spherical object) via the UI screen. An arbitrary point in the three-dimensional model mapped on the inner surface) is registered as a gazing point. Then, this dedicated application changes the gazing point along a path that interpolates between two or more gazing points registered by the user, and executes an animation in which partial images centered on the changing gazing point are connected. In the present embodiment, the “partial image” means a two-dimensional image obtained by projective transformation of an image region centered on an arbitrary gazing point on the three-dimensional model of the omnidirectional image.
図1は、本実施形態の情報処理装置の一例として、スマートフォン100を示す。図1に示すように、スマートフォン100のタッチパネル・ディスプレイ18には、全天球画像の注視点を登録するためのUI画面(以下、UI画面という)が表示されている。 FIG. 1 shows a smartphone 100 as an example of the information processing apparatus of this embodiment. As shown in FIG. 1, a UI screen (hereinafter referred to as a UI screen) for registering a gazing point of an omnidirectional image is displayed on the touch panel display 18 of the smartphone 100.
図1に示すように、UI画面は、部分画像表示領域20とアイコン表示領域30とを含んで構成されており、部分画像表示領域20には、全天球画像の一部の画像領域(ユーザーが指定した注視点を中心とする画像領域)を射影変換した部分画像が表示されるとともに、当該部分画像の上に重畳する形で、表示モードの切り替えを受け付けるボタン21と、アニメーションの再生時間とデータ容量を表わす情報22と、注視点の登録を受け付けるボタン23と、全天球画像の注視点を示す十字カーソル24が表示されている。また、アイコン表示領域30には、アニメーションの実行指示を受け付けるボタン32の他、後述する各種アイコンが表示されるようになっている。 As shown in FIG. 1, the UI screen includes a partial image display area 20 and an icon display area 30, and the partial image display area 20 includes a partial image area (user area) of the omnidirectional image. A partial image obtained by projective transformation of the image region centered on the gazing point designated by the user is displayed, and a button 21 for accepting display mode switching is superimposed on the partial image, an animation playback time, Information 22 indicating the data capacity, a button 23 for accepting registration of the gazing point, and a cross cursor 24 indicating the gazing point of the omnidirectional image are displayed. In the icon display area 30, various icons to be described later are displayed in addition to a button 32 for receiving an animation execution instruction.
ここで、本実施形態では、部分画像が表示される部分画像表示領域20を任意の方向にスワイプすることによって、全天球画像上の任意の点を注視点として指定することができるようになっており、また、その部分画像をピンチすることによって、全天球画像上の画角を指定することができるようになっている。 Here, in the present embodiment, by swiping the partial image display area 20 in which the partial image is displayed in an arbitrary direction, an arbitrary point on the omnidirectional image can be designated as a gazing point. In addition, the angle of view on the omnidirectional image can be specified by pinching the partial image.
図2は、スワイプ操作によってパン・チルトされた部分画像と、ピンチイン・ピンチアウト操作によって、ズームイン・ズームアウトされた部分画像を例示的に示す。なお、本実施形態では、全天球画像上の注視点を示す十字カーソル24が常に部分画像の中心に表示されるようになっている。 FIG. 2 exemplarily shows a partial image panned / tilted by a swipe operation and a partial image zoomed in / zoomed out by a pinch-in / pinch-out operation. In the present embodiment, the cross cursor 24 indicating the gazing point on the omnidirectional image is always displayed at the center of the partial image.
続いて、図3に示す機能ブロック図に基づいて、本実施形態のスマートフォン100の機能構成を説明する。 Next, the functional configuration of the smartphone 100 according to the present embodiment will be described based on the functional block diagram shown in FIG.
図3に示すように、スマートフォン100は、UI部102と、部分画像生成部103と、注視点登録部104と、補間線計算部105と、補間線登録部106と、注視点制御部107と、アニメーション実行部108と、動画データ生成部109と、記憶領域110とを含んで構成される。 As illustrated in FIG. 3, the smartphone 100 includes a UI unit 102, a partial image generation unit 103, a gazing point registration unit 104, an interpolation line calculation unit 105, an interpolation line registration unit 106, and a gazing point control unit 107. The animation execution unit 108, the moving image data generation unit 109, and the storage area 110 are configured.
UI部102は、上述したUI画像をタッチパネル・ディスプレイ18に表示し、当該UI画像を介して、全天球画像の注視点の登録をはじめとする各種要求をユーザーから受け付ける手段である。 The UI unit 102 is a means for displaying the above-described UI image on the touch panel display 18 and accepting various requests including registration of the gazing point of the omnidirectional image from the user via the UI image.
部分画像生成部103は、記憶領域110から読み出した全天球画像から、ユーザーが指定する注視点を中心とした部分画像を生成する手段である。 The partial image generation unit 103 is a unit that generates a partial image centered on a gazing point designated by the user from the omnidirectional image read from the storage area 110.
注視点登録部104は、UI画面を介したユーザーの登録要求に応答して、ユーザーが指定する注視点をその要求順に登録する手段である。 The gaze point registration unit 104 is means for registering the gaze points designated by the user in the order of the requests in response to the user registration request via the UI screen.
補間線計算部105は、直近に登録された注視点と現在指定されている注視点との間を補間する補間線を計算する手段である。 The interpolation line calculation unit 105 is a means for calculating an interpolation line for interpolating between the most recently registered gazing point and the currently designated gazing point.
補間線登録部106は、登録された注視点とその直前に登録された注視点との間を補間する補間線を登録する手段である。 The interpolation line registration unit 106 is a means for registering an interpolation line for interpolating between the registered gazing point and the gazing point registered immediately before the gazing point.
注視点制御部107は、登録された2以上の注視点を補間する経路に沿って注視点を遷移させる手段である。 The gazing point control unit 107 is a means for changing the gazing point along a path for interpolating two or more registered gazing points.
アニメーション実行部108は、遷移する注視点を中心とした部分画像をその遷移順に繋ぎ合わせたアニメーションを実行する手段である。 The animation execution unit 108 is a means for executing an animation in which partial images centered on a transition gazing point are connected in the order of transition.
動画データ生成部109は、生成された複数の部分画像を汎用ファイル形式の動画データに変換する手段である。 The moving image data generation unit 109 is means for converting the generated plurality of partial images into moving image data in a general-purpose file format.
記憶領域110は、各種データを保持する手段である。 The storage area 110 is a means for holding various data.
なお、本実施形態では、スマートフォン100に搭載されるコンピュータが、専用アプリを実行することにより、上述した各手段として機能する。 In the present embodiment, a computer mounted on the smartphone 100 functions as each unit described above by executing a dedicated application.
以上、スマートフォン100の機能構成について説明してきたが、続いて、注視点の登録時に実行される処理の内容を図4に示すフローチャートに基づいて説明する。 Although the functional configuration of the smartphone 100 has been described above, the contents of processing executed at the time of registering a gaze point will be described based on the flowchart shown in FIG.
スマートフォン100は、タッチパネル・ディスプレイ18にUI画面を表示して、以下に述べる一連の処理を繰り返し実行する。 The smartphone 100 displays a UI screen on the touch panel display 18 and repeatedly executes a series of processes described below.
まずステップ101では、UI部102が、部分画像生成部103が生成した部分画像(すなわち、ユーザーが指定する注視点を中心とした部分画像)をUI画面の部分画像表示領域20に表示する。 First, in step 101, the UI unit 102 displays the partial image generated by the partial image generation unit 103 (that is, the partial image centered on the gazing point designated by the user) in the partial image display area 20 of the UI screen.
続くステップ102では、注視点登録部104が、登録済みの注視点の有無を判断し、それ以前に注視点が登録されていない場合は(ステップ102、No)、処理はステップ111に進んで、注視点の登録要求を監視する。その結果、ユーザーからの登録要求がない場合は(ステップ111、No)、そのまま処理を終了する。 In subsequent step 102, the gazing point registration unit 104 determines whether or not there is a registered gazing point. If no gazing point has been registered before (step 102, No), the process proceeds to step 111. Monitor gaze point registration requests. As a result, when there is no registration request from the user (step 111, No), the processing is ended as it is.
一方、登録要求があった場合は(ステップ111、Yes)、処理はステップ112に進み、注視点登録部104が、ユーザーが現在指定している注視点を注視点登録テーブル500に登録する。 On the other hand, when there is a registration request (step 111, Yes), the process proceeds to step 112, and the watch point registration unit 104 registers the watch point currently designated by the user in the watch point registration table 500.
図5(a)は、上述した記憶領域110に保持されている注視点登録テーブル500を示す。図5(a)に示すように、注視点登録テーブル500は、注視点の3次元座標(x,y,z)、注視点を定義する仰角および方位角、注視点を表すオブジェクトの色情報(R,G,B,A)をそれぞれ格納するためのフィールドを備えており、ステップ112では、ユーザーからの登録要求を検知したときに指定されている注視点に対応する仰角、方位角と、その仰角、方位角から求まる全天球画像上の3次元座標(x,y,z)を注視点登録テーブル500に登録する。なお、色情報については後述する。 FIG. 5A shows a watch point registration table 500 held in the storage area 110 described above. As shown in FIG. 5A, the gazing point registration table 500 includes a three-dimensional coordinate (x, y, z) of the gazing point, an elevation angle and an azimuth angle that define the gazing point, and color information of an object representing the gazing point ( R, G, B, A) are provided for storing fields respectively. In step 112, the elevation angle and the azimuth corresponding to the gaze point designated when detecting the registration request from the user, The three-dimensional coordinates (x, y, z) on the omnidirectional image obtained from the elevation angle and the azimuth are registered in the gazing point registration table 500. The color information will be described later.
その後、UI部102が、続くステップ113で、注視点登録テーブル500に登録した注視点を表すオブジェクトを部分画像表示領域20に表示されている部分画像の上に重畳表示し、続くステップ114で、登録した注視点に対応する注視点アイコンをアイコン表示領域30に表示して、処理を終了する。 Thereafter, the UI unit 102 superimposes and displays the object representing the gazing point registered in the gazing point registration table 500 on the partial image displayed in the partial image display area 20 in the following step 113, and in the subsequent step 114, A gazing point icon corresponding to the registered gazing point is displayed in the icon display area 30, and the process ends.
一方、ステップ102の判断の結果、1以上の注視点が既に注視点登録テーブル500に登録されている場合は(ステップ102、Yes)、処理はステップ103に進む。続くステップ103では、補間線計算部105が、既に登録されている注視点のうち、直近に登録された注視点と、ユーザーが現在指定している部分画像の注視点の間を補間する補間線を計算し、続くステップ104で、UI部102が、計算した補間線を部分画像の上に重畳表示する。なお、上述した補間線を計算する方法の詳細については後述する。 On the other hand, if one or more gazing points are already registered in the gazing point registration table 500 as a result of the determination in step 102 (step 102, Yes), the process proceeds to step 103. In the subsequent step 103, the interpolation line calculation unit 105 interpolates between the most recently registered gazing point among the already registered gazing points and the gazing point of the partial image currently designated by the user. In the subsequent step 104, the UI unit 102 superimposes and displays the calculated interpolation line on the partial image. The details of the method for calculating the interpolation line described above will be described later.
続くステップ105では、注視点登録部104が、注視点の登録要求を監視し、ユーザーからの登録要求がない場合は(ステップ105、No)、そのまま処理を終了する。一方、ユーザーからの登録要求があった場合は(ステップ105、Yes)、続くステップ106で、注視点登録部104が、ユーザーが現在指定している注視点を注視点登録テーブル500に登録する。 In the subsequent step 105, the watch point registration unit 104 monitors a watch point registration request. If there is no registration request from the user (step 105, No), the process is terminated. On the other hand, if there is a registration request from the user (step 105, Yes), in the following step 106, the gazing point registration unit 104 registers the gazing point currently designated by the user in the gazing point registration table 500.
続くステップ107では、UI部102が、ステップ106で登録した注視点を部分画像の上に重畳表示し、続くステップ108で、登録した注視点に対応する注視点アイコンをアイコン表示領域30に表示する。 In the subsequent step 107, the UI unit 102 superimposes and displays the gazing point registered in step 106 on the partial image, and in the subsequent step 108, the gazing point icon corresponding to the registered gazing point is displayed in the icon display area 30. .
続くステップ109では、補間線登録部106が、新たに登録した注視点と、その直前に登録した注視点との間を補間する補間線(すなわち、注視点が新たに登録された時に計算された補間線)を記憶領域110に保持される補間線登録テーブル600に登録する。なお、補間線の登録の詳細については後述する。 In the subsequent step 109, the interpolation line registration unit 106 calculates an interpolation line that interpolates between the newly registered gazing point and the gazing point registered immediately before (i.e., when the gazing point is newly registered). Interpolation line) is registered in the interpolation line registration table 600 held in the storage area 110. Details of the registration of the interpolation line will be described later.
その後、続くステップ110では、UI部102がステップ109で登録した補間線に対応する補間線アイコンを登録順に並べてアイコン表示領域30に表示して、処理を終了する。 Thereafter, in the subsequent step 110, the UI line 102 arranges the interpolation line icons corresponding to the interpolation lines registered in step 109 in the order of registration and displays them in the icon display area 30, and the process ends.
ここで、図6を参照しながら注視点が登録されるときのUI画面の状態遷移を説明する。 Here, the state transition of the UI screen when the gazing point is registered will be described with reference to FIG.
それ以前に注視点の登録がない状態で、ユーザーがボタン23をタップすると、その時点でユーザーが指定している位置(すなわち、十字カーソル24の位置)1番目の注視点として登録される。このとき、図6(a)に示すように、登録された注視点を表すオブジェクト25aが十字カーソル24の上に重なる形で部分画像の上に重畳表示される。そして、これと同時に、登録された注視点25aに対応する注視点アイコン35aがアイコン表示領域30に表示される。なお、本実施形態では、注視点アイコン35aが、登録された注視点25aを中心とした部分画像のサムネイルとして表示される(以下、同様)。 If the user taps the button 23 in a state where no gazing point has been registered before that, the position designated by the user (that is, the position of the cross cursor 24) is registered as the first gazing point. At this time, as shown in FIG. 6A, the object 25 a representing the registered gazing point is superimposed and displayed on the partial image so as to overlap the cross cursor 24. At the same time, a gazing point icon 35 a corresponding to the registered gazing point 25 a is displayed in the icon display area 30. In the present embodiment, the gazing point icon 35a is displayed as a thumbnail of a partial image centered on the registered gazing point 25a (hereinafter the same).
図6(a)に示す状態から、図6(b)に示すように、ユーザーが部分画像表示領域20を破線矢線の方向にスワイプすると、その操作に応じて、指定する注視点の3次元座標が変更される。このとき、ユーザーのスワイプ操作に応じて、オブジェクト25aが十字カーソル24から相対的に離れていき、十字カーソル24を始点とし、オブジェクト25aを終点とする補間線を表すオブジェクト26aが部分画像の上に重畳表示される。 When the user swipes the partial image display area 20 in the direction of the broken arrow line from the state shown in FIG. 6A, as shown in FIG. 6B, the three-dimensional gaze point to be designated according to the operation Coordinates are changed. At this time, according to the user's swipe operation, the object 25a moves relatively away from the cross cursor 24, and an object 26a representing an interpolation line starting from the cross cursor 24 and ending at the object 25a is displayed on the partial image. It is displayed superimposed.
図6(b)に示す状態において、ユーザーがボタン23をタップすると、その時点の十字カーソル24の位置が2番目の注視点として登録される。このとき、図6(c)に示すように、2番目に登録された注視点を表すオブジェクト25bが十字カーソル24の上に重なる形で部分画像の上に重畳表示されるとともに、2番目に登録された注視点25bに対応する注視点アイコン35bが注視点アイコン35aの右隣に表示される。 In the state shown in FIG. 6B, when the user taps the button 23, the position of the cross cursor 24 at that time is registered as the second gazing point. At this time, as shown in FIG. 6C, the object 25b representing the second registered gazing point is superimposed on the partial image so as to be superimposed on the cross cursor 24 and is registered second. A gazing point icon 35b corresponding to the gazing point icon 25b is displayed on the right side of the gazing point icon 35a.
そして、このとき、2番目に登録された注視点25bと1番目に登録された注視点25aの間を補間する補間線26aが登録され、これと同時に、図6(c)に示すように、登録された補間線26aに対応する補間線アイコン36aが、注視点アイコン35aと注視点アイコン35bの間に表示される。 At this time, an interpolation line 26a for interpolating between the second registered gazing point 25b and the first registered gazing point 25a is registered, and at the same time, as shown in FIG. An interpolation line icon 36a corresponding to the registered interpolation line 26a is displayed between the gazing point icon 35a and the gazing point icon 35b.
図6(d)は、注視点25bに続く3番目の注視点が登録された時点のUI画面を示す。図6(d)に示すように、部分画像の上には、3番目に登録された注視点を表すオブジェクト25cが十字カーソル24の上に重なる形で部分画像の上に重畳表示されるとともに、3番目に登録された注視点25cに対応する注視点アイコン35cが注視点アイコン35bの右隣に表示される。 FIG. 6D shows a UI screen at the time when the third gaze point following the gaze point 25b is registered. As shown in FIG. 6D, on the partial image, an object 25c representing the third registered gazing point is superimposed and displayed on the partial image so as to overlap the cross cursor 24. A gazing point icon 35c corresponding to the third registered gazing point 25c is displayed on the right side of the gazing point icon 35b.
そして、これと同時に、3番目に登録された注視点25cとその直前に登録された注視点25bの間を補間する補間線26bが登録されるとともに、図6(d)に示すように、登録された補間線26bに対応する補間線アイコン36bが、注視点アイコン35bと注視点アイコン35cの間に表示される。 At the same time, an interpolation line 26b for interpolating between the third registered gazing point 25c and the gazing point 25b registered immediately before is registered, as shown in FIG. 6 (d). An interpolation line icon 36b corresponding to the interpolation line 26b thus displayed is displayed between the gazing point icon 35b and the gazing point icon 35c.
以上、注視点が登録されるときのUI画面の状態遷移について説明してきたが、続いて、図7に示すフローチャートに基づいて、2つの注視点の間を補間する補間線を計算する処理を説明する。なお、以下では、図8(a)に示す全天球画像の3次元モデルを参照して説明を行う。 The UI screen state transition when a gazing point is registered has been described above. Next, a process for calculating an interpolation line for interpolating between two gazing points will be described based on the flowchart shown in FIG. To do. In the following, description will be made with reference to the three-dimensional model of the omnidirectional image shown in FIG.
まず、ステップ201では、注視点P1の仰角E1と注視点P2の仰角E2の間を等間隔に線形補間して、n個(nは1以上の整数。以下、同様。)の仰角の補間値ei(i=1〜n)を算出する。 First, in step 201, by linearly interpolating between the fixation point P elevation E 1 1 and elevation E 2 of the focus point P 2 at equal intervals, n (n is an integer of 1 or more. Hereinafter the same.) Of An interpolation value e i (i = 1 to n) of the elevation angle is calculated.
続くステップ202では、注視点P1の方位角A1と注視点P2の方位角A2の間を等間隔に線形補間して、n個の方位角の補間値ai(i=1〜n)を算出する。 In step 202, between the azimuth angle A 2 of the focus point P 2 and the azimuth angle A 1 of the gaze point P 1 by linear interpolation at regular intervals, the interpolation values of the n azimuth a i (i = 1~ n) is calculated.
続くステップ203では、注視点P1から見た補間値の順番を示すカウンタiの値を初期値[1]にセットする。 In step 203, it sets the value of the counter i indicating the order of the interpolation value as viewed from the fixation point P 1 to the initial value [1].
続くステップ204では、仰角の補間値eiと方位角の補間値aiに基づいて、全天球画像の3次元モデル上の3次元座標を算出する。 In the next step 204, three-dimensional coordinates on the three-dimensional model of the omnidirectional image are calculated based on the interpolation value e i of the elevation angle and the interpolation value a i of the azimuth angle.
続くステップ205では、注視点P1から見てi番目の補間注視点piとして、ステップ204で算出した3次元座標(x,y,z)を補間線登録テーブル600に登録する。図5(b)は、補間注視点pが登録される補間線登録テーブル600を示す。図5(b)に示すように、補間線登録テーブル600は、補間注視点pの3次元座標(x,y,z)と補間線を表すオブジェクトの色情報(R,G,B,A)をそれぞれ格納するためのフィールドを備えている。 In step 205, the gazing point as viewed from the P 1 i-th interpolation gazing point p i, 3-dimensional coordinates calculated in step 204 (x, y, z) to be registered in the interpolated line registration table 600. FIG. 5B shows an interpolation line registration table 600 in which the interpolation gazing point p is registered. As shown in FIG. 5B, the interpolation line registration table 600 includes the three-dimensional coordinates (x, y, z) of the interpolation gazing point p and the color information (R, G, B, A) of the object representing the interpolation line. Are provided for storing fields.
続くステップ206では、カウンタiの値を1増分する。 In the next step 206, the value of the counter i is incremented by one.
その後、カウンタiの値がnを超えるまで(ステップ207、No)、上述したステップ204〜206の処理を繰り返し、カウンタiの値がnを超えた時点で(ステップ207、Yes)、処理を終了する。 Thereafter, the processing of steps 204 to 206 is repeated until the value of counter i exceeds n (step 207, No), and the processing ends when the value of counter i exceeds n (step 207, Yes). To do.
上述した一連の処理が終了した時点で、図8(b)に示すn個の補間注視点pが補間線登録テーブル600に登録される。本実施形態では、1つの補間線ごとに1つの補間線登録テーブル600が作成され、補間線を表すオブジェクトは、補間線登録テーブル600に登録されたn個の補間注視点pに基づいて生成される。 When the series of processes described above is completed, n interpolation gazing points p shown in FIG. 8B are registered in the interpolation line registration table 600. In this embodiment, one interpolation line registration table 600 is created for each interpolation line, and an object representing the interpolation line is generated based on n interpolation gazing points p registered in the interpolation line registration table 600. The
以上、補間線を計算する処理について説明してきたが、続いて、アイコン表示領域30に表示される注視点アイコンが選択されたときに実行される処理を図9に示すフローチャートに基づいて説明する。 The process for calculating the interpolation line has been described above. Next, the process that is executed when the gazing point icon displayed in the icon display area 30 is selected will be described based on the flowchart shown in FIG.
ユーザーが注視点アイコンを選択したことを検知したUI部102は、ステップ301で、ユーザーが注視点の削除を要求したか否かを判断する。その結果、ユーザーが注視点の削除を要求していない場合は(ステップ301、No)、処理はステップ302に進み、UI部102が、UI画面の部分画像表示領域20を、ユーザーが選択した注視点アイコンに対応する注視点の変更を受け付ける状態に遷移させる。 Upon detecting that the user has selected the gaze point icon, the UI unit 102 determines whether or not the user has requested deletion of the gaze point in step 301. As a result, if the user has not requested deletion of the gazing point (step 301, No), the process proceeds to step 302, where the UI unit 102 selects the partial image display area 20 of the UI screen. Transition to a state of accepting a change of the point of gaze corresponding to the viewpoint icon.
その後、UI部102は、ステップ303で、所定期間にわたってユーザーによる注視点の変更を待機する。その結果、ユーザーが注視点を変更せずにタイムアウトした場合は(ステップ303、No)、処理をそのまま終了する。一方、ユーザーが注視点を変更した場合は(ステップ303、Yes)、処理はステップ304に進む。 Thereafter, in step 303, the UI unit 102 waits for the user to change the gaze point for a predetermined period. As a result, when the user times out without changing the point of gaze (No at Step 303), the process is terminated as it is. On the other hand, when the user changes the point of gaze (step 303, Yes), the process proceeds to step 304.
続くステップ304では、補間線計算部105が、変更された注視点と、その直前または直後に登録された他の注視点との間を補間する補間線を再計算し、続くステップ305で、補間線登録部106が、再計算した補間線を補間線登録テーブル600に登録する。 In the subsequent step 304, the interpolation line calculation unit 105 recalculates an interpolation line for interpolating between the changed gazing point and another gazing point registered immediately before or immediately thereafter. The line registration unit 106 registers the recalculated interpolation line in the interpolation line registration table 600.
その後、続くステップ306で、UI部102が、変更された注視点と再計算した補間線を部分画像の上に重畳表示して、処理を終了する。 Thereafter, in the subsequent step 306, the UI unit 102 superimposes and displays the changed gazing point and the recalculated interpolation line on the partial image, and ends the process.
ここで、図10を参照しながらユーザーが注視点を変更するときのUI画面の状態遷移を説明する。 Here, the state transition of the UI screen when the user changes the gaze point will be described with reference to FIG.
図10(a)は、3つの注視点(25a、25b、25c)が登録されている状態のUI画面を示す。この状態において、ユーザーが2番目に登録した注視点25bに対応する注視点アイコン35bをタップすると、UI画面が、タップされた注視点アイコン35bに対応する注視点25bの位置の変更を受け付けるために、図10(b)に示す状態に遷移する。これを受けて、ユーザーは、2番目の注視点25bの位置を任意の位置に変更する。 FIG. 10A shows a UI screen in a state where three gazing points (25a, 25b, 25c) are registered. In this state, when the user taps the gaze point icon 35b corresponding to the second registered gaze point 25b, the UI screen accepts a change in the position of the gaze point 25b corresponding to the tapped gaze point icon 35b. , Transition to the state shown in FIG. In response to this, the user changes the position of the second gazing point 25b to an arbitrary position.
図10(c)は、ユーザーが2番目の注視点25bの位置を変更した後のUI画面を示す。このとき、注視点25bの変更に伴って、注視点登録テーブル500における注視点25bの3次元座標が変更される。また、注視点25bと注視点25aの間を補間する補間線26aならびに注視点25bと注視点25cの間を補間する補間線26bが再計算され、その計算結果に基づいて各補間線に対応する補間線登録テーブル600の内容が変更される。 FIG. 10C shows the UI screen after the user changes the position of the second gazing point 25b. At this time, the three-dimensional coordinates of the gazing point 25b in the gazing point registration table 500 are changed with the change of the gazing point 25b. In addition, an interpolation line 26a for interpolating between the gazing point 25b and the gazing point 25a and an interpolation line 26b for interpolating between the gazing point 25b and the gazing point 25c are recalculated, and each interpolation line corresponds to the calculation result. The contents of the interpolation line registration table 600 are changed.
再び図9に戻って説明を続ける。 Returning to FIG. 9 again, the description will be continued.
先のステップ301の判断の結果、ユーザーが注視点アイコンを選択した後に注視点の削除を要求した場合は(ステップ301、Yes)、処理はステップ307に進む。続くステップ307では、注視点登録部104が、ユーザーが選択した注視点アイコンに対応する注視点の登録を注視点登録テーブル500から削除し、続くステップ308で、UI部102が、削除した注視点に対応する注視点アイコンを非表示にする。 As a result of the determination in the previous step 301, when the user requests deletion of the gazing point after selecting the gazing point icon (step 301, Yes), the process proceeds to step 307. In the subsequent step 307, the gazing point registration unit 104 deletes the registration of the gazing point corresponding to the gazing point icon selected by the user from the gazing point registration table 500, and in the subsequent step 308, the UI unit 102 deletes the gazing point. Hide the gaze point icon corresponding to.
その後、続くステップ309で、補間線登録部106が、削除した注視点を始点または終点とする補間線の登録を補間線登録テーブル600から削除し、続くステップ310で、UI部102が、削除した補間線に対応する補間線アイコンを非表示にする。 Thereafter, in the subsequent step 309, the interpolation line registration unit 106 deletes the registration of the interpolation line having the deleted gazing point as the start point or end point from the interpolation line registration table 600, and in the subsequent step 310, the UI unit 102 deletes it. Hides the interpolation line icon corresponding to the interpolation line.
その後、続くステップ311で、補間線計算部105が、削除した注視点の、その直前に登録された注視点と、その直後に登録された注視点との間を補間する補間線を新たに計算する。 Thereafter, in step 311, the interpolation line calculation unit 105 newly calculates an interpolation line for interpolating between the gaze point registered immediately before and the gaze point registered immediately after that of the deleted gaze point. To do.
その後、続くステップ312で、補間線登録部106が、新たに計算した補間線を補間線登録テーブル600に登録し、続くステップ313で、UI部102が、新たに計算した補間線を部分画像の上に重畳表示して、処理を終了する。 Thereafter, in the following step 312, the interpolation line registration unit 106 registers the newly calculated interpolation line in the interpolation line registration table 600, and in the subsequent step 313, the UI unit 102 adds the newly calculated interpolation line of the partial image. The process is terminated after being superimposed on the top.
なお、先のステップ307で削除された注視点が最後順の注視点であった場合は、先のステップ308〜310の処理を実行した後に、ステップ311〜313の処理を実行することなく処理を終了する。 If the gaze point deleted in the previous step 307 is the last gaze point, the process in steps 311 to 313 is performed after the process in steps 308 to 310 is performed. finish.
ここで、図11を参照しながら注視点が削除されるときのUI画面の状態遷移を説明する。 Here, the state transition of the UI screen when the gazing point is deleted will be described with reference to FIG.
図11(a)は、3つの注視点(25a、25b、25c)が登録されている状態のUI画面を示す。この状態において、ユーザーが2番目に登録した注視点25bに対応する注視点アイコン35bをタップした後に、ゴミ箱アイコン27をタップすると、UI画面は図11(b)に示す状態に遷移する。 FIG. 11A shows a UI screen in a state where three gazing points (25a, 25b, 25c) are registered. In this state, when the trash icon 27 is tapped after the user taps the gazing point icon 35b corresponding to the second gazing point 25b registered by the user, the UI screen changes to the state shown in FIG.
このとき、注視点登録テーブル500において、注視点25bの登録が削除されるとともに、注視点25aと注視点25cの間を補間する新たな補間線26dが新たに計算され、その計算結果が補間線登録テーブル600に登録され、新たな補間線26dが部分画像の上に重畳表示される。 At this time, in the gazing point registration table 500, registration of the gazing point 25b is deleted, a new interpolation line 26d for interpolating between the gazing point 25a and the gazing point 25c is newly calculated, and the calculation result is the interpolation line. The new interpolation line 26d is registered in the registration table 600 and is superimposed on the partial image.
以上、注視点アイコンが選択されたときに実行される処理について説明してきたが、続いて、補間線アイコンが選択されたときに実行される処理を図12に示すフローチャートに基づいて説明する。 The processing executed when the gazing point icon is selected has been described above. Subsequently, the processing executed when the interpolation line icon is selected will be described based on the flowchart shown in FIG.
UI部102は、ユーザーが補間線アイコンを選択したことに応答して、ステップ401で、パラメータ設定画面を表示する。 In response to the user selecting the interpolation line icon, the UI unit 102 displays a parameter setting screen in step 401.
ここで、図13は、ユーザーが補間線アイコンを選択したときのUI画面の状態遷移を示す。図13(a)に示すように、ユーザーが補間線アイコン36bをタップすると、UI画面が図13(b)に示すパラメータ設定画面に遷移する。 Here, FIG. 13 shows the state transition of the UI screen when the user selects the interpolation line icon. As shown in FIG. 13A, when the user taps the interpolation line icon 36b, the UI screen changes to the parameter setting screen shown in FIG. 13B.
図13(b)に示すように、パラメータ設定画面は、パラメータ設定領域40とプレビュー表示領域50から構成されている。ここで、パラメータ設定領域40には、進行方向(最短/遠回り)を選択するためのボタン群42と、スピードを設定するためのスライダー43と、イージングカーブを選択するためのボタン群44と、停止時間を選択するためのボタン群45が表示されており、ボタン群42のいずれかをタップして進行方向を選択したり、スライダー43を操作してスピードを選択したり、ボタン群44のいずれかをタップしてイージングカーブを選択したり、ボタン群45のいずれかをタップして停止時間を選択したりすることができるようになっている。 As shown in FIG. 13B, the parameter setting screen includes a parameter setting area 40 and a preview display area 50. Here, in the parameter setting area 40, a button group 42 for selecting a traveling direction (shortest / distance), a slider 43 for setting a speed, a button group 44 for selecting an easing curve, and a stop. A button group 45 for selecting a time is displayed, and any one of the button group 44 is selected by tapping any one of the button groups 42 to select a traveling direction, or operating the slider 43 to select a speed. The easing curve can be selected by tapping, or the stop time can be selected by tapping any of the button group 45.
ここで、進行方向とは、アニメーションを実行する際の注視点の移動方向を意味し、スピードとは、注視点の移動速度を意味する。また、イージングカーブとは、注視点の移動加速度の時間変化を示すカーブを意味し、停止時間とは、登録された各ポイントで注視点の移動を停止させる時間(すなわち、アニメーションを停止させる時間)を意味する。 Here, the advancing direction means the moving direction of the gazing point when executing the animation, and the speed means the moving speed of the gazing point. Also, the easing curve means a curve indicating the time change of the movement acceleration of the gazing point, and the stop time is the time for stopping the movement of the gazing point at each registered point (that is, the time for stopping the animation). Means.
再び図12に戻って説明を続ける。 Returning to FIG. 12, the description will be continued.
UI部102は、パラメータ設定画面を表示した後、続くステップ402で、ユーザーがパラメータ設定画面上で進行方向以外のパラメータ(スピード、イージングカーブ、停止時間)を変更したか否かを判断し、ユーザーが進行方向以外のパラメータを変更した場合は(ステップ402、Yes)、処理はステップ403に進む。 After the parameter setting screen is displayed, the UI unit 102 determines whether or not the user has changed parameters (speed, easing curve, stop time) other than the traveling direction on the parameter setting screen in the subsequent step 402, and When the parameter other than the traveling direction is changed (step 402, Yes), the process proceeds to step 403.
続くステップ403では、UI部102が、ユーザーが選択した補間線アイコンに対応する補間線に対応する経路に沿って実行されるアニメーションに係る3種類のパラメータ(スピード、イージングカーブ、停止時間)のうち、ユーザーが選択したパラメータの値をユーザーが選択した値に変更して、処理を終了する。 In the subsequent step 403, the UI unit 102 includes three types of parameters (speed, easing curve, and stop time) related to the animation executed along the path corresponding to the interpolation line corresponding to the interpolation line icon selected by the user. The parameter value selected by the user is changed to the value selected by the user, and the process is terminated.
一方、ステップ402の判断の結果、ユーザーが進行方向を変更した場合は(ステップ402、No→ステップ404、Yes)、処理はステップ405に進む。なお、所定期間にわたってユーザーがいずれのパラメータの変更も要求せずにタイムアウトした場合は(ステップ402、No→ステップ404、No)、処理を終了する。 On the other hand, if the result of determination in step 402 is that the user has changed the direction of travel (step 402, No → step 404, Yes), the process proceeds to step 405. If the user times out without requesting any parameter change for a predetermined period (step 402, No → step 404, No), the process is terminated.
続くステップ405では、補間線計算部105が、ユーザーが選択した補間線アイコンに対応する補間線をユーザーが変更した進行方向に従って再計算する。例えば、ユーザーがボタン群42を操作して進行方向を「最短」から「遠回り」に変更した場合、ユーザーが選択した補間線アイコンに対応する補間線の始点から終点に至る経路が最長となるような補間線を再計算する。そして、続くステップ406で、補間線登録部106が、再計算した補間線を補間線登録テーブル600に登録して、処理を終了する。 In subsequent step 405, the interpolation line calculation unit 105 recalculates the interpolation line corresponding to the interpolation line icon selected by the user according to the traveling direction changed by the user. For example, when the user operates the button group 42 and changes the traveling direction from “shortest” to “detour”, the path from the start point to the end point of the interpolation line corresponding to the interpolation line icon selected by the user is the longest. Recalculate the correct interpolation line. In subsequent step 406, the interpolation line registration unit 106 registers the recalculated interpolation line in the interpolation line registration table 600, and the process ends.
ここで、図14(a)は、2つの注視点25a、25bが登録されているUI画面を示す。この状態から、上述した手順で進行方向が「最短」から「遠回り」に変更されると、UI画面は図14(b)に示す状態に遷移する。 Here, FIG. 14A shows a UI screen in which two gazing points 25a and 25b are registered. From this state, when the traveling direction is changed from “shortest” to “detour” in the procedure described above, the UI screen changes to the state shown in FIG.
なお、本実施形態では、プレビュー表示領域50に表示される再生ボタン52をユーザーがタップすると、アニメーション実行部108が、ユーザーが選択した補間線アイコンに対応する補間線に対応する経路に沿ってアニメーションを実行し、UI部102がそのアニメーションをプレビュー表示領域50に表示する。このプレビュー再生によって、ユーザーは、パラメータの変更によってアニメーションが意図したものとなっているか否かを確認することができる。 In this embodiment, when the user taps the play button 52 displayed in the preview display area 50, the animation execution unit 108 performs animation along the path corresponding to the interpolation line corresponding to the interpolation line icon selected by the user. The UI unit 102 displays the animation in the preview display area 50. By this preview reproduction, the user can confirm whether or not the animation is intended by changing the parameters.
ここで、図1で述べたボタン21の機能について説明する。本実施形態では、ボタン21をタップすることによって、部分画像の上に重畳表示される各種オブジェクト(注視点25、補間線26、十字カーソル24)の表示/非表示を切り替えることができる。図15(a)は、表示モードが選択されたときのUI画面を示し、図15(b)は、非表示モードが選択されたときのUI画面を示す。 Here, the function of the button 21 described in FIG. 1 will be described. In the present embodiment, by tapping the button 21, display / non-display of various objects (gaze point 25, interpolation line 26, cross cursor 24) superimposed on the partial image can be switched. FIG. 15A shows the UI screen when the display mode is selected, and FIG. 15B shows the UI screen when the non-display mode is selected.
以上、説明したように、本実施形態においては、ユーザーが、UI部102が提供するUI画面を介して全天球画像上の任意の注視点を登録し、注視点制御部107が、登録された2以上の注視点を補間する経路に沿って注視点を遷移させ、アニメーション実行部108が、遷移する注視点を中心とした部分画像をその遷移順に繋ぎ合わせたアニメーションを実行する。これにより、全天球画像の注目領域がアニメーションの形でわかりやすく提示される。 As described above, in this embodiment, the user registers an arbitrary gazing point on the omnidirectional image via the UI screen provided by the UI unit 102, and the gazing point control unit 107 is registered. Then, the gazing point is shifted along a path for interpolating two or more gazing points, and the animation execution unit 108 executes an animation in which partial images centered on the changing gazing point are connected in the transition order. Thereby, the attention area of the omnidirectional image is presented in an easy-to-understand manner in the form of animation.
加えて、本実施形態によれば、注視点を登録するUI画面において、注視点とその移動経路である補間線が部分画像上に可視化されるので、アニメーション全体の流れを直観的に把握しやすくなり、これにより、アニメーションの編集が容易になる。 In addition, according to the present embodiment, on the UI screen for registering the gazing point, the gazing point and the interpolation line as the movement path thereof are visualized on the partial image, so that it is easy to intuitively understand the flow of the entire animation. This makes it easier to edit the animation.
なお、上述した実施形態では、登録された注視点を○で表示し、補間線を実線で表示する態様を説明したが、本実施形態では、登録された注視点を表すオブジェクトならびに補間線を表すオブジェクトの形態を任意に決めることができる。 In the embodiment described above, the registered gaze point is displayed with a circle and the interpolation line is displayed with a solid line. However, in the present embodiment, the object representing the registered gaze point and the interpolation line are represented. The form of the object can be determined arbitrarily.
また、本実施形態では、2以上の登録された注視点をそれぞれが区別可能な態様で表示してもよく、2以上の登録された補間線をそれぞれが区別可能な態様で表示してもよい。その場合、注視点登録テーブル500(図5(a))の色情報(R,G,B,A)を個別に設定することで登録された注視点のそれぞれに異なる色を割り当てることができ、補間線登録テーブル600(図5(b))の色情報(R,G,B,A)を個別に設定することで登録された補間線のそれぞれに異なる色を割り当てることもできる。 In the present embodiment, two or more registered gazing points may be displayed in a distinguishable manner, or two or more registered interpolation lines may be displayed in a distinguishable manner. . In that case, a different color can be assigned to each of the registered gazing points by individually setting the color information (R, G, B, A) of the gazing point registration table 500 (FIG. 5A), Different colors can be assigned to each of the registered interpolation lines by individually setting the color information (R, G, B, A) of the interpolation line registration table 600 (FIG. 5B).
加えて、本実施形態では、登録された注視点と注視点アイコンを、その対応関係が把握可能な態様で表示したり、登録された補間線と補間線アイコンを、その対応関係が把握可能な態様で表示したりすることもできる。この点につき、図16は、登録された注視点とこれに対応する注視点アイコンのそれぞれに対して同じ番号を付加し、登録された補間線とこれに対応する補間線アイコンのそれぞれを異なる態様のオブジェクト(実線と破線)で表したUI画面を例示的に示す。 In addition, in the present embodiment, registered gaze points and gaze point icons can be displayed in a manner in which the correspondence relationship can be grasped, or registered interpolation lines and interpolation line icons can be grasped in the correspondence relationship. It can also be displayed in a manner. In this regard, FIG. 16 is a diagram in which the same number is added to each of the registered gazing point and the corresponding gazing point icon, and each of the registered interpolation line and the corresponding interpolation line icon is different. The UI screen represented by the objects (solid line and broken line) is exemplarily shown.
以上、全天球画像の注目領域をわかりやすく提示する情報処理装置の実施形態として、ユーザーが登録した注視点に基づいてアニメーションを実行する実施形態を説明してきたが、以下では、本発明の別の実施形態について説明する。別の実施形態では、ユーザーに注視点を登録させるのではなく、ユーザーが選択した全天球画像の内容に合った注視点を学習済みモデルを使用して自動的に登録する。 As described above, the embodiment of executing the animation based on the gaze point registered by the user has been described as the embodiment of the information processing apparatus that presents the attention area of the omnidirectional image in an easy-to-understand manner. The embodiment will be described. In another embodiment, rather than letting the user register a gaze point, a gaze point that matches the content of the omnidirectional image selected by the user is automatically registered using the learned model.
(別の実施形態)
図17は、別の実施形態のネットワークシステムを示す。本実施形態のネットワークシステムは、スマートフォン200とサーバ300を含んで構成されており、各スマートフォン200とサーバ300はネットワーク60を介して相互に通信可能に接続されている。なお、スマートフォン200は、全天球画像を表示する情報処理装置の一例として示されている。
(Another embodiment)
FIG. 17 shows a network system according to another embodiment. The network system of the present embodiment is configured to include a smartphone 200 and a server 300, and each smartphone 200 and the server 300 are connected via a network 60 so as to communicate with each other. The smartphone 200 is shown as an example of an information processing device that displays an omnidirectional image.
図18は、スマートフォン200を示す。図18に示すように、スマートフォン200のタッチパネル・ディスプレイ18には、全天球画像の注目領域をわかりやすく提示するためのアニメーションの実行を受け付けるためのUI画面(以下、UI画面という)が表示されている。 FIG. 18 shows the smartphone 200. As shown in FIG. 18, the touch panel display 18 of the smartphone 200 displays a UI screen (hereinafter referred to as a UI screen) for accepting execution of an animation for presenting the attention area of the omnidirectional image in an easy-to-understand manner. ing.
図18に示すように、UI画面は、アニメーション表示領域70とアニメーションの実行条件を設定するためのパラメータ設定領域80から構成されている。ここで、アニメーション表示領域70には、アニメーションの実行を指示するための再生ボタン72が表示されており、パラメータ設定領域80には、注視点の数を指定するための入力ボックス82と、アニメーションのループ回数を指定するための入力ボックス83と、注視点におけるアニメーションの停止時間を指定するためのボタン群84と、動画データの生成場所を指定するためのボタン群85が表示されている。 As shown in FIG. 18, the UI screen is composed of an animation display area 70 and a parameter setting area 80 for setting an execution condition for animation. Here, a playback button 72 for instructing execution of the animation is displayed in the animation display area 70, and an input box 82 for designating the number of gazing points and an animation display area are displayed in the parameter setting area 80. An input box 83 for designating the number of loops, a button group 84 for designating the animation stop time at the gazing point, and a button group 85 for designating the generation location of the moving image data are displayed.
続いて、図19に示す機能ブロック図に基づいて、本実施形態のスマートフォン200およびサーバ300の機能構成を説明する。 Then, based on the functional block diagram shown in FIG. 19, the functional structure of the smart phone 200 of this embodiment and the server 300 is demonstrated.
図19に示すように、スマートフォン200は、UI部202と、注視点登録要求部203と、注視点制御部204と、アニメーション実行部205と、動画データ生成部206と、記憶領域207とを含んで構成される。 As illustrated in FIG. 19, the smartphone 200 includes a UI unit 202, a gaze point registration request unit 203, a gaze point control unit 204, an animation execution unit 205, a moving image data generation unit 206, and a storage area 207. Consists of.
UI部202は、アニメーションの実行を受け付けるためのUI画像をタッチパネル・ディスプレイ18に表示し、当該UI画像を介して、アニメーションの実行条件の設定およびその実行指示をユーザーから受け付ける手段である。 The UI unit 202 is means for displaying a UI image for accepting the execution of an animation on the touch panel display 18 and accepting setting of an execution condition of the animation and an instruction for the execution from the user via the UI image.
注視点登録要求部203は、ユーザーからアニメーションの実行指示を受け付けたことに応答して、注視点の登録をサーバ300に要求する手段である。 The gaze point registration request unit 203 is a means for requesting the server 300 to register a gaze point in response to receiving an animation execution instruction from the user.
注視点制御部204は、サーバ300が登録した2以上の注視点を補間する経路に沿って注視点を遷移させる手段である。 The gazing point control unit 204 is a means for changing the gazing point along a path for interpolating two or more gazing points registered by the server 300.
アニメーション実行部205は、遷移する注視点を中心とした部分画像をその遷移順に繋ぎ合わせたアニメーションを実行する手段である。 The animation execution unit 205 is a means for executing an animation in which partial images centered on a transition point of interest are connected in the order of transition.
動画データ生成部206は、実行されたアニメーションを汎用ファイル形式の動画データに変換する手段である。 The moving image data generation unit 206 is a means for converting the executed animation into moving image data in a general-purpose file format.
記憶領域207は、各種データを保持する手段である。 The storage area 207 is a means for holding various data.
なお、本実施形態では、スマートフォン200に搭載されるコンピュータが、専用アプリを実行することにより、上述した各手段として機能する。 In the present embodiment, a computer mounted on the smartphone 200 functions as each unit described above by executing a dedicated application.
一方、図19に示すように、サーバ300は、部分画像分割部301と、特徴量抽出部302と、重要度算出部303と、注目点尤度分布算出部304と、注目点算出部305と、注視点登録部306と、注視点制御部307と、アニメーション実行部308と、動画データ生成部309とを含んで構成される。 On the other hand, as shown in FIG. 19, the server 300 includes a partial image dividing unit 301, a feature amount extracting unit 302, an importance calculating unit 303, an attention point likelihood distribution calculating unit 304, and an attention point calculating unit 305. , A gazing point registration unit 306, a gazing point control unit 307, an animation execution unit 308, and a moving image data generation unit 309.
部分画像分割部301は、スマートフォン200から受信した全天球画像をEquirectangular形式(正距円筒図法)の画像に変換し、変換後の画像を異なる複数の方向に再投影して複数の部分画像に分割する手段である。 The partial image dividing unit 301 converts the omnidirectional image received from the smartphone 200 into an image in the Equirectangular format (equal equirectangular projection), and re-projects the converted image in a plurality of different directions into a plurality of partial images. It is a means to divide.
特徴量抽出部302は、各部分画像から特徴量を抽出する手段である。 The feature amount extraction unit 302 is a means for extracting a feature amount from each partial image.
重要度算出部303は、抽出した特徴量から所定の回帰モデル(学習済みモデル)に基づいて、処理対象となる画像の位置ごとの重要度を算出する手段である。 The importance calculation unit 303 is a means for calculating the importance for each position of the image to be processed based on a predetermined regression model (learned model) from the extracted feature amount.
注目点尤度分布算出部304は、算出した重要度から注目点の尤度分布を算出する手段である。 The attention point likelihood distribution calculation unit 304 is a means for calculating the likelihood distribution of the attention point from the calculated importance.
注目点算出部305は、算出した注目点の尤度分布に基づいて注目点を算出する手段である。 The attention point calculation unit 305 is means for calculating the attention point based on the calculated likelihood distribution of the attention point.
注視点登録部306は、注目点算出部305が算出した2以上の注目点に基づいて2以上の注視点を登録する手段である。 The gaze point registration unit 306 is means for registering two or more gaze points based on the two or more attention points calculated by the attention point calculation unit 305.
注視点制御部307は、注視点登録部306が登録した2以上の注視点を補間する経路に沿って注視点を遷移させる手段である。 The gazing point control unit 307 is a means for changing the gazing point along a path for interpolating two or more gazing points registered by the gazing point registration unit 306.
アニメーション実行部308は、遷移する注視点を中心とした部分画像をその遷移順に繋ぎ合わせたアニメーションを実行する手段である。 The animation execution unit 308 is means for executing an animation in which partial images centered on a transition point of interest are connected in the order of transition.
動画データ生成部309は、実行されたアニメーションを汎用ファイル形式の動画データに変換する手段である。 The moving image data generation unit 309 is means for converting the executed animation into moving image data in a general-purpose file format.
なお、本実施形態では、サーバ300を構成するコンピュータが所定のプログラムを実行することにより、サーバ300が上述した各手段として機能する。 In this embodiment, the server 300 functions as each unit described above when a computer constituting the server 300 executes a predetermined program.
以上、スマートフォン200およびサーバ300の機能構成について説明してきたが、続いて、本実施形態においてユーザーがアニメーションの実行を指示したときに実行される処理の内容を図20に示すシーケンス図に基づいて説明する。 The functional configurations of the smartphone 200 and the server 300 have been described above. Next, the contents of processing executed when the user instructs execution of animation in the present embodiment will be described based on the sequence diagram shown in FIG. To do.
まず、ユーザーは、記憶領域207に保存される全天球画像の中から所望の画像を選択した上で、UI部202が表示するUI画面(図18参照)のパラメータ設定領域80を介してアニメーションの実行条件を設定した後、アニメーション表示領域70の再生ボタン72をタップしてアニメーションの実行を指示する(S1)。 First, the user selects a desired image from the omnidirectional images stored in the storage area 207, and then performs an animation via the parameter setting area 80 on the UI screen (see FIG. 18) displayed by the UI unit 202. After the execution condition is set, the playback button 72 in the animation display area 70 is tapped to instruct the execution of the animation (S1).
これを受けて、注視点登録要求部203は、ユーザーが選択した全天球画像とユーザーが設定した実行条件(注視点の数、ループ回数、停止時間、動画データの生成場所)を含む注視点登録要求を生成し、サーバ300に送信する(S2)。 In response to this, the gaze point registration request unit 203 includes a gaze point that includes the omnidirectional image selected by the user and the execution conditions set by the user (number of gaze points, number of loops, stop time, generation location of moving image data). A registration request is generated and transmitted to the server 300 (S2).
これを受けて、サーバ300は、スマートフォン200から受信した注視点登録要求に含まれる全天球画像と「注視点の数」の設定に基づいて注視点登録テーブルを作成する(S3)。 In response to this, the server 300 creates a gaze point registration table based on the setting of the omnidirectional image and the “number of gaze points” included in the gaze point registration request received from the smartphone 200 (S3).
ここで、S3において、サーバ300が注視点登録テーブルを作成する処理を図21に示すフローチャートに基づいて説明する。 Here, the process in which the server 300 creates the watch point registration table in S3 will be described based on the flowchart shown in FIG.
まず、ステップ501では、部分画像分割部301が、注視点登録要求に含まれる全天球画像をEquirectangular形式(正距円筒図法)の全方位画像に変換した後、当該全方位画像の撮影方向を空間的に等分割し、当該全方位画像を異なる複数の撮影方向に再投影することによって複数の部分画像に分割する。以下、部分画像に分割する手順を具体的に説明する。 First, in step 501, the partial image dividing unit 301 converts the omnidirectional image included in the gaze point registration request into an omnidirectional image in an Equirectangular format (equal equirectangular projection), and then changes the shooting direction of the omnidirectional image. Spatial equal division is performed, and the omnidirectional image is reprojected in a plurality of different shooting directions to be divided into a plurality of partial images. Hereinafter, a procedure for dividing the image into partial images will be specifically described.
図22(a)に示すように、Equirectangular形式の全方位画像からは、経度緯度の座標値から任意の3次元方向の画素値を得ることができ、Equirectangular形式の全方位画像は、概念的には単位球に画素値がプロットされたものとして捉えることができる。そこで、本実施形態では、図22(b)に示すように、所定の投影面を定義し、単位球の中心を投影中心Oとして、下記式(1)により、Equirectangular形式の全方位画像の画素値(θ,φ)を定義した投影面上の画素値(x,y)に対応させる透視投影変換を行って部分画像を得る。なお、下記式(1)において、Pは透視投影行列を示し、等号は0以外のスカラー倍で等しいことを示す。 As shown in FIG. 22A, from the omnidirectional image in the Equirectangular format, pixel values in an arbitrary three-dimensional direction can be obtained from the coordinate values of longitude and latitude. The omnidirectional image in the Equirectangular format is conceptually Can be regarded as pixel values plotted on a unit sphere. Therefore, in the present embodiment, as shown in FIG. 22B, a predetermined projection plane is defined, and the center of the unit sphere is set as the projection center O, and the pixel of the omnidirectional image in the Equirectangular format according to the following equation (1) A partial image is obtained by performing perspective projection conversion corresponding to the pixel value (x, y) on the projection plane on which the value (θ, φ) is defined. In the following formula (1), P indicates a perspective projection matrix, and the equal sign indicates that it is equal to a scalar multiple other than 0.
具体的には、Equirectangular形式の全方位画像の投影面として、単位球と共通する中心を有する正多面体を定義した上で、各面の法線方向を視線方向として透視投影変換を行って部分画像を得る。図23(a)は、全方位画像の投影面として正八面体を定義した例を示し、図23(b)は、全方位画像の投影面として正十二面体を定義した例を示す。 Specifically, after defining a regular polyhedron having a center common to the unit sphere as the projection plane of the omnidirectional image in Equirectangular format, partial projection is performed by performing perspective projection conversion with the normal direction of each plane as the viewing direction. Get. FIG. 23A shows an example in which a regular octahedron is defined as the projection plane of the omnidirectional image, and FIG. 23B shows an example in which a regular dodecahedron is defined as the projection plane of the omnidirectional image.
続くステップ502では、特徴量抽出部302が、先のステップ501で得た各部分画像から所定の特徴量を抽出する。なお、ここで抽出する特徴量としては、色、エッジ、顕著性、物体位置/ラベル、LBP、Haar like feature、HOG、SIFT、などを例示することができる。 In subsequent step 502, the feature amount extraction unit 302 extracts a predetermined feature amount from each partial image obtained in the previous step 501. Note that examples of the feature quantity extracted here include color, edge, saliency, object position / label, LBP, Haar like feature, HOG, SIFT, and the like.
続くステップ503では、重要度算出部303が、所定の回帰モデルを用いて、各部分画像から抽出した特徴量から全方位画像の位置ごと(画素ごと)に重要度を算出する。以下、この点を具体的に説明する。 In the subsequent step 503, the importance calculation unit 303 calculates the importance for each position (for each pixel) of the omnidirectional image from the feature amount extracted from each partial image using a predetermined regression model. This point will be specifically described below.
全方位画像をN個に分割した部分画像のi番目の部分画像の位置ごとの特徴量を並べたベクトルをliとし、全方位画像の位置ごとの重要度を並べたベクトルをgとした上で、下記式(2)に示す回帰モデルfを考える。 The vector in which the feature amounts for each position of the i-th partial image of the partial image obtained by dividing the omnidirectional image into N is arranged as l i, and the vector in which the importance for each position of the omnidirectional image is arranged is set as g. Then, a regression model f shown in the following formula (2) is considered.
ここで、回帰モデルfの具体的な形として、下記式(3)に示す線形変換を例示することができる。 Here, as a specific form of the regression model f, a linear transformation represented by the following formula (3) can be exemplified.
上記式(3)において、W、bはパラメータを示す。本実施形態では、特徴量liを入力とし、重要度gを出力とする訓練データを事前に用意しておき、当該訓練データを学習させることによって、パラメータW、bを同定しておく(学習済みモデルの用意)。 In the above formula (3), W and b represent parameters. In the present embodiment, training data having the feature quantity l i as input and the importance g as output is prepared in advance, and the parameters W and b are identified by learning the training data (learning). Ready model).
その前提として、本実施形態では、訓練データの出力(教師データ)である重要度gを適切な方法で取得する。重要度gを取得する最も単純な方法としては、対象画像において、被験者が重要と思う領域を被験者に指定させ、被験者が指定した領域を構成する各画素の重要度を「1」とし、それ以外の画素の重要度を「0」とするといった方法を挙げることができる。この他にも、対象画像を見る被験者の視点の軌跡をアイトラッカーなどで取得した後、取得した視点の軌跡(線)にガウシアンぼかしを施し、その濃淡レベルに基づいて正規化された重要度(0〜1)を取得する方法を例示することができる。 As a premise thereof, in the present embodiment, importance g, which is output of training data (teacher data), is acquired by an appropriate method. The simplest method for obtaining the importance level g is to let the subject specify a region that the subject thinks important in the target image, and set the importance level of each pixel constituting the region specified by the subject to “1”, otherwise A method of setting the importance of the pixel of “0” to “0” can be mentioned. In addition to this, after acquiring the viewpoint trajectory of the subject viewing the target image with an eye tracker or the like, Gaussian blurring is applied to the acquired viewpoint trajectory (line), and the importance level normalized based on the shading level ( The method of acquiring 0-1) can be illustrated.
続くステップ504では、重要度の高い方向にユーザーの注目点が存在するという設計思想の下、注目点尤度分布算出部304が、先のステップ503で算出された重要度の分布に基づいて注目点の尤度分布を算出する。本実施形態では、図24に示すように、単位画像面上に、視点Aを通る撮影方向を中心とする領域Rを定義した上で、領域R内の各位置の重要度を加算した加算値を視点Aの注目点尤度として算出することができる。また、本実施形態では、領域R内の各位置の重要度に対して、視点Aから離れるに従って減衰するような重みを与えた上で、その重みを用いた重要度の加重加算値を視点Aの注目点尤度として算出することもできる。 In the subsequent step 504, the attention point likelihood distribution calculation unit 304 pays attention based on the importance distribution calculated in the previous step 503 under the design philosophy that the attention point of the user exists in the higher importance direction. The likelihood distribution of points is calculated. In the present embodiment, as shown in FIG. 24, an area R centering on the shooting direction passing through the viewpoint A is defined on the unit image surface, and the addition value obtained by adding the importance of each position in the area R is added. As the attention point likelihood of the viewpoint A. Further, in the present embodiment, a weight that attenuates as the distance from the viewpoint A is given to the importance of each position in the region R, and a weighted addition value of the importance using the weight is assigned to the viewpoint A. It is also possible to calculate as the attention point likelihood.
ここで、撮影方向の3次元ベクトルをp、撮影方向pの重要度をg(p)と表現すると、注目点尤度a(p)は、下記式(4)のように定式化することができる。 Here, if the three-dimensional vector of the shooting direction is expressed as p and the importance of the shooting direction p is expressed as g (p), the attention point likelihood a (p) can be formulated as the following equation (4). it can.
上記式(4)において、ηは単調増加関数を示し、w(p,q)は重みを示し、積分は定積分であり、積分範囲は撮影単位球面全体である。本実施形態では、ηを指数関数とすることができ、w(p,q)を下記式(5)に示す関数とすることができる。 In the above equation (4), η represents a monotonically increasing function, w (p, q) represents a weight, the integral is a definite integral, and the integral range is the entire photographing unit spherical surface. In this embodiment, η can be an exponential function, and w (p, q) can be a function represented by the following equation (5).
上記式(5)はvon Mises分布に順ずるものであり、方向p, qが一致する場合に最大値、p,qが逆方向を向く際に最小値を取る。本実施形態では、パラメータαで重みの減衰率を決めることができ、注目点を考える画角を反映することができる。 The above equation (5) follows the von Mises distribution, and takes the maximum value when the directions p and q match, and takes the minimum value when p and q face in the opposite direction. In the present embodiment, the attenuation rate of the weight can be determined by the parameter α, and the angle of view considering the attention point can be reflected.
また、本実施形態では、重みw(p,q)を、下記式(6)に示すように、{αi}をパラメータとして、方向p,qの内積の多項式を指数関数の引数に取ることもできる。 In the present embodiment, the weight w (p, q) is represented by the following equation (6), with {α i } as a parameter, and a polynomial of the inner product of directions p and q as an exponential function argument: You can also.
再び、図21に戻って説明を続ける。 Returning to FIG. 21, the description will be continued.
続くステップ505では、注目点算出部305が、注目点尤度a(p)の局所最大値を求める。ここで、注視点登録要求において「注視点の数」の設定値がM(Mは2以上の整数)であった場合、注目点算出部305は、注目点尤度a(p)につき、M個の局所最大値を求める。なお、注目点尤度a(p)の局所最大値は、ランダムに生成したpの初期値から山登り法で探索して求めることができる。その後、求めたM個の局所最大値に対応するM個の撮影方向pを求め、各方向に対応する位置を注目点として取得する。より具体的には、下記式(7)に示す評価関数を最大化するM個の撮影方向p1, p2, ..., pMを求め、各方向に対応する注目点(θ,φ)を取得する。 In subsequent step 505, the attention point calculation unit 305 obtains a local maximum value of the attention point likelihood a (p). Here, when the set value of the “number of gazing points” is M (M is an integer of 2 or more) in the gazing point registration request, the attention point calculation unit 305 performs M for the attention point likelihood a (p). Find the local maximum. Note that the local maximum value of the attention point likelihood a (p) can be obtained by searching by a hill-climbing method from the randomly generated initial value of p. Thereafter, M photographing directions p corresponding to the obtained M local maximum values are obtained, and positions corresponding to the respective directions are acquired as attention points. More specifically, M photographing directions p1, p2,..., PM that maximize the evaluation function shown in the following equation (7) are obtained, and attention points (θ, φ) corresponding to the directions are obtained. To do.
なお、上記式(7)において、dは、視点間の距離を表現する関数であり、このような関数としては、p1, p2, ..,,pMの分散や各視点間のユークリッド距離の総和などを例示することができる。このような評価関数を使用することにより、それぞれの位置が離れたM個の注目点を取得することができる。 In the above equation (7), d is a function that expresses the distance between viewpoints. Examples of such a function include the variance of p1, p2,..., PM and the sum of Euclidean distances between viewpoints. Etc. can be illustrated. By using such an evaluation function, M attention points that are separated from each other can be acquired.
続くステップ506では、注視点登録部306が以下の手順で注視点登録テーブルを作成する。具体的には、まず、先のステップ505で算出したM個の注目点(θ,φ)に対応する全天球画像上の3次元座標(x,y,z)を算出し、これらをM個の注視点(x,y,z)として取得する。 In subsequent step 506, the gaze point registration unit 306 creates a gaze point registration table in the following procedure. Specifically, first, three-dimensional coordinates (x, y, z) on the omnidirectional image corresponding to the M attention points (θ, φ) calculated in the previous step 505 are calculated. Acquired as individual gazing points (x, y, z).
次に、取得したM個の注視点(x,y,z)を、所定の規則に従って、順番にテーブルに登録する。本実施形態では、例えば、全天球画像上に予め基準となる注視点(ホームポジション)を決めておき、取得したM個の注視点のうち、当該ホームポジションから最近傍の注視点を1番目に登録し、残りの(M−1)個の注視点のうち、1番目の注視点から最近傍の注視点を2番目に登録し、残りの(M−2)個の注視点のうち、2番目の注視点から最近傍の注視点を3番目に登録し、…といった手順を繰り返すことによって、M個の注視点を順番にテーブルに登録する。図25は、そのようにして作成された注視点登録テーブル700を示す。 Next, the acquired M gazing points (x, y, z) are sequentially registered in the table according to a predetermined rule. In the present embodiment, for example, a reference gazing point (home position) is determined in advance on the omnidirectional image, and among the acquired M gazing points, the closest gazing point from the home position is the first. Among the remaining (M-1) gazing points, the second gazing point nearest to the first gazing point is registered secondly, and the remaining (M-2) gazing points, The nearest gaze point is registered third from the second gaze point, and the procedure such as... Is repeated to register M gaze points in the table in order. FIG. 25 shows the gaze point registration table 700 created as described above.
再び、図20に戻って説明を続ける。 Returning to FIG. 20, the description will be continued.
S3において、サーバ300が注視点登録テーブル700を作成した後は、注視点登録要求に含まれる「動画データの生成場所」の設定内容によって処理が分かれる。 In S3, after the server 300 creates the gazing point registration table 700, the process is divided according to the setting content of “video data generation location” included in the gazing point registration request.
まず、「動画データの生成場所」の設定が「クライアント」であった場合には、サーバ300は、S3で作成した注視点登録テーブル700と、S2で受信した全天球画像ならびに実行条件(ループ回数、停止時間)をスマートフォン200に送信する(S4)。 First, when the setting of “video data generation location” is “client”, the server 300, the gaze point registration table 700 created in S3, the omnidirectional image received in S2 and the execution condition (loop) The number of times and the stop time are transmitted to the smartphone 200 (S4).
これを受けて、スマートフォン200の注視点制御部204が、S4で受信した注視点登録テーブル700に登録された注視点をその登録順に補間する経路に沿って、S4で受信した全天球画像上で注視点を遷移させ、アニメーション実行部205が、遷移する注視点を中心とした部分画像を繋ぎ合わせたアニメーションを、S4で受信した実行条件(ループ回数、停止時間)に従って実行する(S5)。その後、動画データ生成部206が、S5で実行したアニメーションを汎用ファイル形式の動画データに変換し、記憶領域207に保存する(S6)。 In response to this, the gazing point control unit 204 of the smartphone 200 receives the gazing point registered in the gazing point registration table 700 received in S4 along the path in which the gazing point is registered in the registration order. Then, the gazing point is changed, and the animation execution unit 205 executes the animation in which the partial images centered on the changing gazing point are connected according to the execution condition (the number of loops and the stop time) received in S4 (S5). Thereafter, the moving image data generation unit 206 converts the animation executed in S5 into moving image data in a general-purpose file format and stores it in the storage area 207 (S6).
なお、スマートフォン200にて、動画データを生成が完了した際には、スマートフォン200からサーバ300へ動画データの生成が完了した旨の通知を送信する。この通知を受けたサーバ300は、スマートフォン200から受信した全天球画像や、実行条件、注視点登録テーブルに記憶されている情報などを削除し、個人情報への配慮を実施しても良い。 Note that when the generation of moving image data is completed on the smartphone 200, a notification that the generation of moving image data has been completed is transmitted from the smartphone 200 to the server 300. Upon receiving this notification, the server 300 may delete the omnidirectional image received from the smartphone 200, the execution condition, information stored in the gaze point registration table, and the like, and may consider personal information.
一方、「動画データの生成場所」の設定が「サーバ」であった場合には、サーバ300の注視点制御部307が、S3で作成した注視点登録テーブル700に登録された注視点をその登録順に補間する経路に沿って、S2で受信した全天球画像上で注視点を遷移させ、アニメーション実行部308が、遷移する注視点を中心とした部分画像を繋ぎ合わせたアニメーションを、S2で受信した実行条件(ループ回数、停止時間)に従って実行する(S7)。その後、動画データ生成部309が、S7で実行したアニメーションを汎用ファイル形式の動画データに変換する(S8)。 On the other hand, when the setting of “video data generation location” is “server”, the gazing point control unit 307 of the server 300 registers the gazing point registered in the gazing point registration table 700 created in S3. The gazing point is shifted on the omnidirectional image received in S2 along the path to be interpolated in order, and the animation execution unit 308 receives an animation in which partial images centered on the changing gazing point are connected in S2. The process is executed according to the executed conditions (loop count, stop time) (S7). Thereafter, the moving image data generation unit 309 converts the animation executed in S7 into moving image data in a general-purpose file format (S8).
その後、サーバ300は、S8で変換した動画データをスマートフォン200に送信する(S9)。これを受けて、スマートフォン200は、受信した動画データを再生表示した後、記憶領域207に保存する(S10)。 Thereafter, the server 300 transmits the moving image data converted in S8 to the smartphone 200 (S9). In response to this, the smartphone 200 reproduces and displays the received moving image data, and then saves it in the storage area 207 (S10).
なお、スマートフォン200にて、動画データを受信した際には、スマートフォン200からサーバ300へ動画データが受信できた旨の通知を送信する。この通知を受けたサーバ300は、スマートフォン200から受信した全天球画像や、実行条件、注視点登録テーブルに記憶されている情報、動画データなどを削除し、個人情報への配慮を実施しても良い。 When the smartphone 200 receives the moving image data, the smartphone 200 transmits a notification that the moving image data has been received to the server 300. Upon receiving this notification, the server 300 deletes the omnidirectional image received from the smartphone 200, the execution conditions, the information stored in the gazing point registration table, the moving image data, etc., and considers the personal information. Also good.
以上、説明したように、上述した別の実施形態によれば、ユーザーに注視点を登録させる手間を取らせることなく、全天球画像の注目領域をアニメーションでわかりやすく提示することができる。なお、実施形態において、本発明を適用する好適なコンテンツとして全天球画像で説明しているが、この全天球画像以外にも、撮影の画角が180度以上の画像であれば、本発明を適用することが可能である。このように、画角が広く、通常の表示画面では表示がし難い画像に対して、表示の表現の幅を広げて、ユーザーへの画像の訴求力を高めることができる。 As described above, according to another embodiment described above, the attention area of the omnidirectional image can be presented in an easy-to-understand manner without causing the user to register the gazing point. In the embodiment, the omnidirectional image is described as a suitable content to which the present invention is applied. However, in addition to the omnidirectional image, if the image has an angle of view of 180 degrees or more, this The invention can be applied. In this way, it is possible to increase the appeal of the image to the user by widening the range of expression of the display with respect to an image having a wide angle of view and difficult to display on a normal display screen.
最後に、図26に基づいて本実施形態のハードウェア構成について説明する。 Finally, the hardware configuration of this embodiment will be described with reference to FIG.
図26(a)に示すように、本実施形態のスマートフォン100,200に搭載されるコンピュータは、装置全体の動作を制御するプロセッサ10と、ブートプログラムやファームウェアプログラムなどを保存するROM12と、プログラムの実行空間を提供するRAM13と、当該コンピュータを上述した各手段として機能させるためのプログラムやオペレーティングシステム(OS)等を保存するための補助記憶装置14と、タッチパネル・ディスプレイ18などを接続するための入出力インターフェース15と、ネットワーク60に接続するためのネットワーク・インターフェース16とを備えている。 As shown in FIG. 26A, the computer mounted on the smartphones 100 and 200 of the present embodiment includes a processor 10 that controls the operation of the entire apparatus, a ROM 12 that stores a boot program, a firmware program, and the like, An RAM 13 that provides an execution space, an auxiliary storage device 14 that stores a program for operating the computer as each of the above-described means, an operating system (OS), and the like, and an input for connecting a touch panel display 18 and the like. An output interface 15 and a network interface 16 for connecting to a network 60 are provided.
図26(b)に示すように、本実施形態のサーバ300に搭載されるコンピュータは、は、装置全体の動作を制御するプロセッサ310と、ブートプログラムやファームウェアプログラムなどを保存するROM312と、プログラムの実行空間を提供するRAM313と、当該コンピュータを上述した各手段として機能させるためのプログラムやオペレーティングシステム(OS)等を保存するための補助記憶装置314と、入出力インターフェース315と、ネットワーク60に接続するためのネットワーク・インターフェース316とを備えている。 As shown in FIG. 26B, the computer mounted on the server 300 of this embodiment includes a processor 310 that controls the operation of the entire apparatus, a ROM 312 that stores a boot program, a firmware program, and the like, A RAM 313 that provides an execution space, an auxiliary storage device 314 for storing a program, an operating system (OS), and the like for causing the computer to function as each unit described above, an input / output interface 315, and a network 60 are connected Network interface 316.
なお、上述した実施形態の各機能は、C、C++、C#、Java(登録商標)などで記述されたプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの記録媒体に格納して頒布することができ、また他の装置が可能な形式でネットワークを介して伝送することができる。 Note that each function of the above-described embodiment can be realized by a program described in C, C ++, C #, Java (registered trademark), etc., and the program of this embodiment includes a hard disk device, a CD-ROM, an MO, a DVD, and the like. It can be stored in a recording medium such as a flexible disk, EEPROM, EPROM and distributed, and can be transmitted via a network in a format that can be used by other devices.
以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 As described above, the present invention has been described with the embodiment. However, the present invention is not limited to the above-described embodiment, and as long as the operations and effects of the present invention are exhibited within the scope of embodiments that can be considered by those skilled in the art. It is included in the scope of the present invention.
10…プロセッサ
12…ROM
13…RAM
14…補助記憶装置
15…入出力インターフェース
16…ネットワーク・インターフェース
18…タッチパネル・ディスプレイ
20…部分画像表示領域
21…ボタン
22…情報
23…ボタン
24…十字カーソル
25…注視点(オブジェクト)
26…補間線(オブジェクト)
27…ゴミ箱アイコン
30…アイコン表示領域
32…ボタン
35…注視点アイコン
36…補間線アイコン
40…パラメータ設定領域
42…ボタン群
43…スライダー
44…ボタン群
45…ボタン群
50…プレビュー表示領域
52…再生ボタン
60…ネットワーク
70…アニメーション表示領域
72…再生ボタン
80…パラメータ設定領域
82…入力ボックス
83…入力ボックス
84…ボタン群
85…ボタン群
100…スマートフォン(情報処理装置)
102…UI部
103…部分画像生成部
104…注視点登録部
105…補間線計算部
106…補間線登録部
107…注視点制御部
108…アニメーション実行部
109…動画データ生成部
110…記憶領域
200…スマートフォン(情報処理装置)
202…UI部
203…注視点登録要求部
204…注視点制御部
205…アニメーション実行部
206…動画データ生成部
207…記憶領域
300…サーバ
301…部分画像分割部
302…特徴量抽出部
303…重要度算出部
304…注目点尤度分布算出部
305…注目点算出部
306…注視点登録部
307…注視点制御部
308…アニメーション実行部
309…動画データ生成部
310…プロセッサ
312…ROM
313…RAM
314…補助記憶装置
315…入出力インターフェース
316…ネットワーク・インターフェース
500…注視点登録テーブル
600…補間線登録テーブル
700…注視点登録テーブル
10 ... Processor 12 ... ROM
13 ... RAM
14 ... auxiliary storage device 15 ... input / output interface 16 ... network interface 18 ... touch panel display 20 ... partial image display area 21 ... button 22 ... information 23 ... button 24 ... cross cursor 25 ... gaze point (object)
26 ... Interpolation line (object)
27 ... Trash can icon 30 ... Icon display area 32 ... Button 35 ... Gaze point icon 36 ... Interpolation line icon 40 ... Parameter setting area 42 ... Button group 43 ... Slider 44 ... Button group 45 ... Button group 50 ... Preview display area 52 ... Playback Button 60 ... Network 70 ... Animation display area 72 ... Playback button 80 ... Parameter setting area 82 ... Input box 83 ... Input box 84 ... Button group 85 ... Button group 100 ... Smartphone (information processing apparatus)
102 ... UI unit 103 ... partial image generation unit 104 ... gaze point registration unit 105 ... interpolation line calculation unit 106 ... interpolation line registration unit 107 ... gaze point control unit 108 ... animation execution unit 109 ... moving image data generation unit 110 ... storage area 200 ... Smartphone (information processing device)
202 ... UI unit 203 ... gaze point registration request unit 204 ... gaze point control unit 205 ... animation execution unit 206 ... moving image data generation unit 207 ... storage area 300 ... server 301 ... partial image division unit 302 ... feature quantity extraction unit 303 ... important Degree calculation unit 304 ... attention point likelihood distribution calculation unit 305 ... attention point calculation unit 306 ... gaze point registration unit 307 ... gaze point control unit 308 ... animation execution unit 309 ... moving image data generation unit 310 ... processor 312 ... ROM
313 ... RAM
314 ... auxiliary storage device 315 ... input / output interface 316 ... network interface 500 ... gaze point registration table 600 ... interpolation line registration table 700 ... gaze point registration table
ここで、撮影方向の3次元ベクトルをp、撮影方向qの重要度をg(q)と表現すると、注目点尤度a(q)は、下記式(4)のように定式化することができる。 Here, when the three-dimensional vector of the shooting direction is expressed as p and the importance of the shooting direction q is expressed as g ( q ), the attention point likelihood a ( q ) can be formulated as the following equation (4). it can.
Claims (8)
生成された前記部分画像を表示するUI画面を介して前記注視点の登録を受け付けるUI部と、
前記UI画面を介したユーザーの要求に応答して前記注視点を登録する注視点登録部と、
直近に登録された前記注視点と現在指定されている前記注視点との間を補間する補間線を計算する補間線計算部と、
登録された前記注視点とその直前に登録された前記注視点との間を補間する前記補間線を登録する補間線登録部と
を含み、
前記UI部は、
前記補間線および登録された前記注視点を前記UI画面の前記部分画像の上に重畳表示する、
情報処理装置。 A partial image generation unit that generates a partial image centered on a gazing point specified by the user from the omnidirectional image;
A UI unit that receives registration of the gazing point via a UI screen that displays the generated partial image;
A gaze point registration unit that registers the gaze point in response to a user request via the UI screen;
An interpolation line calculation unit for calculating an interpolation line for interpolating between the most recently registered gaze point and the currently designated gaze point;
An interpolation line registration unit for registering the interpolation line for interpolating between the registered gazing point and the gazing point registered immediately before,
The UI unit is
Displaying the interpolation line and the registered gazing point on the partial image of the UI screen,
Information processing device.
登録された前記注視点に対応する注視点アイコンを登録順に並べて表示するアイコン表示領域を含み、
前記UI部は、
前記注視点アイコンが選択されたことに応答して、対応する前記注視点の変更を受け付け、
前記補間線計算部は、
変更された前記注視点とその直前または直後に登録された他の前記注視点との間を補間する補間線を再計算する、
請求項1に記載の情報処理装置。 The UI screen is
Including an icon display area for displaying gaze point icons corresponding to the registered gaze points in order of registration;
The UI unit is
In response to selection of the gaze point icon, accepts a corresponding change of the gaze point,
The interpolation line calculation unit
Recalculate an interpolation line for interpolating between the changed gazing point and another gazing point registered immediately before or after the gazing point;
The information processing apparatus according to claim 1.
登録された前記注視点を中心とした前記部分画像のサムネイルである、
請求項2に記載の情報処理装置。 The gaze point icon is
It is a thumbnail of the partial image centered on the registered gazing point,
The information processing apparatus according to claim 2.
前記注視点アイコンが選択されたことに応答して、対応する前記注視点の削除を受け付け、
前記補間線計算部は、
削除された前記注視点の直前に登録された前記注視点と、削除された前記注視点の直後に登録された前記注視点との間を補間する補間線を計算する、
請求項2または3に記載の情報処理装置。 The UI unit is
In response to selection of the gaze point icon, accepts deletion of the corresponding gaze point,
The interpolation line calculation unit
Calculating an interpolation line for interpolating between the gazing point registered immediately before the deleted gazing point and the gazing point registered immediately after the deleted gazing point;
The information processing apparatus according to claim 2 or 3.
登録された2以上の前記注視点を補間する経路に沿って注視点を遷移させる視点制御部と、
遷移する各注視点を中心とした部分画像を注視点の遷移順に繋ぎ合わせたアニメーションを実行するアニメーション実行部と、
を含み、
前記UI部は、
登録された前記補間線に対応する補間線アイコンを前記アイコン表示領域に表示し、
前記補間線アイコンが選択されたことに応答して、該補間線アイコンに対応する前記経路に沿って実行される前記アニメーションのパラメータ設定を受け付ける、
請求項2〜4のいずれか一項に記載の情報処理装置。 The information processing apparatus includes:
A viewpoint control unit that transitions a gazing point along a path for interpolating two or more registered gazing points;
An animation execution unit that executes an animation in which partial images centered on each transition point of interest are connected in the order of transition of the point of interest;
Including
The UI unit is
An interpolation line icon corresponding to the registered interpolation line is displayed in the icon display area,
In response to the selection of the interpolation line icon, accepting parameter settings for the animation executed along the path corresponding to the interpolation line icon;
The information processing apparatus according to any one of claims 2 to 4.
前記注視点と前記注視点アイコンをその対応関係が把握可能な態様で表示し、
前記補間線と前記補間線アイコンをその対応関係が把握可能な態様で表示する、
請求項5に記載の情報処理装置。 The UI unit is
The gaze point and the gaze point icon are displayed in a manner in which the correspondence can be grasped,
Displaying the interpolation line and the interpolation line icon in a manner in which the correspondence can be grasped;
The information processing apparatus according to claim 5.
複数の前記注視点または複数の前記補間線をそれぞれが区別可能な態様で表示する、
請求項1〜6のいずれか一項に記載の情報処理装置。 The UI unit is
Displaying the plurality of gazing points or the plurality of interpolation lines in a distinguishable manner.
The information processing apparatus according to any one of claims 1 to 6.
全天球画像から、ユーザーが指定する注視点を中心とした部分画像を生成する部分画像生成手段、
生成された前記部分画像を表示するUI画面を介して前記注視点の登録を受け付けるUI手段、
前記UI画面を介したユーザーの要求に応答して前記注視点を登録する注視点登録手段、
直近に登録された前記注視点と現在指定されている前記注視点との間を補間する補間線を計算する補間線計算手段、
登録された前記注視点とその直前に登録された前記注視点との間を補間する前記補間線を登録する補間線登録手段、
として機能させるプログラムであって、
前記UI手段は、
前記補間線および登録された前記注視点を前記UI画面の前記部分画像の上に重畳表示する、
プログラム。
Computer
A partial image generating means for generating a partial image centered on a gazing point designated by the user from the omnidirectional image;
UI means for accepting registration of the gazing point via a UI screen that displays the generated partial image;
Gaze point registration means for registering the gaze point in response to a user request via the UI screen;
Interpolation line calculation means for calculating an interpolation line for interpolating between the most recently registered gazing point and the currently designated gazing point;
Interpolation line registration means for registering the interpolation line for interpolating between the registered gazing point and the gazing point registered immediately before the gazing point;
A program that functions as
The UI means includes
Displaying the interpolation line and the registered gazing point on the partial image of the UI screen,
program.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910315614.1A CN110392206B (en) | 2018-04-18 | 2019-04-15 | Information processing apparatus and recording medium |
| US16/385,004 US10991071B2 (en) | 2018-04-18 | 2019-04-16 | Information processing apparatus and recording medium |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018079561 | 2018-04-18 | ||
| JP2018079561 | 2018-04-18 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019191528A true JP2019191528A (en) | 2019-10-31 |
| JP7073917B2 JP7073917B2 (en) | 2022-05-24 |
Family
ID=68390336
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018104862A Active JP7073917B2 (en) | 2018-04-18 | 2018-05-31 | Information processing equipment and programs |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7073917B2 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08304097A (en) * | 1995-05-01 | 1996-11-22 | Pioneer Electron Corp | Display controller and control method |
| JP2005174021A (en) * | 2003-12-11 | 2005-06-30 | Canon Inc | Information presentation method and apparatus |
| US20090319948A1 (en) * | 2008-06-20 | 2009-12-24 | Smartdraw.Com | Automated editing of graphics charts |
| US20170205885A1 (en) * | 2016-01-14 | 2017-07-20 | Google Inc. | Systems and methods for orienting a user in a map display |
| US20180052576A1 (en) * | 2016-08-18 | 2018-02-22 | Lg Electronics Inc. | Mobile terminal |
-
2018
- 2018-05-31 JP JP2018104862A patent/JP7073917B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08304097A (en) * | 1995-05-01 | 1996-11-22 | Pioneer Electron Corp | Display controller and control method |
| JP2005174021A (en) * | 2003-12-11 | 2005-06-30 | Canon Inc | Information presentation method and apparatus |
| US20090319948A1 (en) * | 2008-06-20 | 2009-12-24 | Smartdraw.Com | Automated editing of graphics charts |
| US20170205885A1 (en) * | 2016-01-14 | 2017-07-20 | Google Inc. | Systems and methods for orienting a user in a map display |
| US20180052576A1 (en) * | 2016-08-18 | 2018-02-22 | Lg Electronics Inc. | Mobile terminal |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7073917B2 (en) | 2022-05-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110392206B (en) | Information processing apparatus and recording medium | |
| JP5429060B2 (en) | Display control apparatus, display control method, display control program, and recording medium on which this display control program is recorded | |
| KR20220035380A (en) | System and method for augmented reality scenes | |
| JP7017175B2 (en) | Information processing equipment, information processing method, program | |
| WO2013118458A1 (en) | Image processing device, and computer program product | |
| US12114052B2 (en) | Methods, systems, and media for presenting interactive elements within video content | |
| CN108450035B (en) | Navigating through a multi-dimensional image space | |
| JP2016144089A (en) | Image processing apparatus and control method therefor | |
| JP7032451B2 (en) | Dynamically changing the visual properties of indicators on digital maps | |
| US20170263033A1 (en) | Contextual Virtual Reality Interaction | |
| JP7717237B2 (en) | Choosing a Virtual Location for Virtual Content | |
| CN105637463B (en) | The technology navigated in multiple images | |
| WO2018051688A1 (en) | Information processing device, method and program related to generation of virtual viewpoint image | |
| JP2016201714A (en) | Display control device and display control method | |
| CN115120979B (en) | Virtual object display control method, device, storage medium and electronic device | |
| CN104126197B (en) | Information processing device and information processing method | |
| US11132821B1 (en) | Providing graphical user interface tools for efficiently selecting handles in vector artwork on touch-based devices | |
| CN114779981B (en) | Drag-and-drop hotspot interaction method, system and storage medium in panoramic video | |
| JP2015231114A (en) | Video display device | |
| CN109582134B (en) | Information display method, device and display device | |
| CN110928509A (en) | Display control method, display control device, storage medium, and communication terminal | |
| US12063343B2 (en) | Representation of media data | |
| JP6304305B2 (en) | Image processing apparatus, image processing method, and program | |
| JP7073917B2 (en) | Information processing equipment and programs | |
| CN110020301A (en) | Web browser method and device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190412 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190412 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190822 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211027 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211220 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220425 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7073917 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |