[go: up one dir, main page]

JP2016062184A - Moving image generation system, moving image generation device, moving image generation method, and computer program - Google Patents

Moving image generation system, moving image generation device, moving image generation method, and computer program Download PDF

Info

Publication number
JP2016062184A
JP2016062184A JP2014188099A JP2014188099A JP2016062184A JP 2016062184 A JP2016062184 A JP 2016062184A JP 2014188099 A JP2014188099 A JP 2014188099A JP 2014188099 A JP2014188099 A JP 2014188099A JP 2016062184 A JP2016062184 A JP 2016062184A
Authority
JP
Japan
Prior art keywords
key frame
frame images
user position
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014188099A
Other languages
Japanese (ja)
Other versions
JP6544719B2 (en
Inventor
野間 春生
Haruo Noma
春生 野間
ロペス ガリバー ロベルト
Lopez Gulliver Roberto
ロペス ガリバー ロベルト
耕平 松村
Kohei Matsumura
耕平 松村
敬博 畑本
Takahiro Hatamoto
敬博 畑本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Original Assignee
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust filed Critical Ritsumeikan Trust
Priority to JP2014188099A priority Critical patent/JP6544719B2/en
Publication of JP2016062184A publication Critical patent/JP2016062184A/en
Application granted granted Critical
Publication of JP6544719B2 publication Critical patent/JP6544719B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve a feeling of transfer to be provided, while suppressing increase in an amount of data.SOLUTION: A moving image generation system 10 includes: a storage section 20 that stores a plurality of key frame images captured at a plurality of positions and respective imaging positions of the plurality of key frame images in association with each other; an acquisition section 43 for acquiring a user position Px transferring virtually; a selection section 44 that selects a plurality of key frame images A and B, the imaging positions of which are located near the user position Px, from the plurality of key frame images stored in the storage section 20; and an interpolation processing section 46 that acquires an interpolation frame image X at the user position Px at least from one of the selected plurality of key frame images A and B by interpolation processing based on distances dand dbetween the user position Px and imaging positions Pand Pof the plurality of selected key frame images A and B respectively.SELECTED DRAWING: Figure 1

Description

本発明は、動画像生成に関する。   The present invention relates to moving image generation.

非特許文献1に示すように、世界中の様々な場所について撮影された静止画像を提供するサービスが知られている。   As shown in Non-Patent Document 1, a service that provides still images taken from various places around the world is known.

GoogleStreetView,https://www.google.com/maps/views/streetview?gl=jp&hl=jaGoogle Street View, https: // www. Google. com / maps / views / streetview? gl = jp & hl = ja Hyperlapse,http://labs.teenanlax.com/project/hyperlapseHyperlapse, http: // labs. teenanlax. com / project / hyperlapse

ここで、ユーザに対して、仮想的な移動感覚を提示するために、移動に応じて変化する風景画像の動画をユーザに提示することが求められている。これを実現するためには、自動車に搭載されたカメラによって、自動車の移動中に撮影された動画像をユーザに提示することが考えられる。運転動作やトレッドミル走行などのユーザの行動に合わせて又は連動して予め撮影された動画像がユーザに提示されることで、ユーザは、撮影された場所を実際に訪れなくても、撮影された場所を移動しているような仮想的な移動感覚を得ることができる。   Here, in order to present a virtual movement feeling to the user, it is required to present the user with a moving image of a landscape image that changes according to the movement. In order to realize this, it is conceivable to present a user with a moving image captured during the movement of the automobile by a camera mounted on the automobile. By presenting the user with a moving image that is captured in advance or in conjunction with the user's action such as driving operation or running on a treadmill, the user can be captured even without actually visiting the captured location. It is possible to obtain a virtual movement sensation as if moving from one place to another.

様々な場所における仮想的な移動感覚を提供するには、それらの場所を結ぶ全ての経路に沿って予め撮影された動画像が必要となる。しかし、動画像は静止画像に比べてデータ量が大きいため、全ての経路で予め撮影された動画像を準備し提供するのは、必ずしも容易ではない。   In order to provide a virtual movement sensation in various places, moving images taken in advance along all routes connecting those places are required. However, since a moving image has a larger amount of data than a still image, it is not always easy to prepare and provide a moving image that has been captured in advance for all routes.

前述のStreetViewように、世界中の様々な場所について撮影された静止画像を提供するサービスは既に存在している。また、Hyperlapse(非特許文献2参照)は、StreetViewにて提供されている各地の静止画を動画像のフレーム画像として用いることを提案している。近接する地点の静止画を連続的に提示することで、動画像となり、移動感覚を提示することができる。   There is already a service that provides still images taken from various locations around the world, such as the Street View described above. Hyperlapse (see Non-Patent Document 2) proposes to use a still image provided in Street View as a frame image of a moving image. By continuously presenting still images at nearby points, a moving image is obtained, and a sense of movement can be presented.

StreetViewでは、各地の静止画像が比較的広い撮影間隔で撮影されており、撮影間隔は、およそ11.5m間隔であるといわれている。比較的広い撮影間隔で撮影された静止画であっても、非常に高速に切り替えて表示すると、風景がスムーズに変化する動画の提示が可能となる。しかし、広い撮影間隔で撮影された静止画像を高速に切り替えると、非常に高速な移動感覚しか得られない。   In StreetView, still images in various places are taken at a relatively wide shooting interval, and the shooting interval is said to be approximately 11.5 m. Even a still image shot at a relatively wide shooting interval can be displayed at a very high speed to display a moving image with a smoothly changing landscape. However, when still images taken at wide shooting intervals are switched at high speed, only a very fast moving sensation can be obtained.

一方、人の歩行や走行程度の低速での移動感覚を提供しようとすると、断片的な移動風景となる。つまり、人の歩行スピード程度の移動速度にあわせて、広い撮影間隔で撮影された静止画像を低速で切り替えて表示すると、一つの静止画像が数秒にわたって表示されることになる。このため、移動速度が低速であると、ユーザには断片的に静止画像が提示されるだけであり、ユーザが得られる移動感覚の質が低下する。   On the other hand, if it is intended to provide a sense of movement at low speeds such as walking and running of people, it becomes a fragmentary moving landscape. In other words, when still images taken at a wide shooting interval are switched at a low speed in accordance with the movement speed of the human walking speed, one still image is displayed for several seconds. For this reason, when the moving speed is low, only a still image is presented to the user in pieces, and the quality of movement sense obtained by the user is deteriorated.

低速時における自然な移動感覚の提示には、動画像を構成するフレームとなる静止画像の撮影間隔を十分に狭くすることが考えられるが、自然な移動感覚が得られる程度に撮影間隔を狭くすると、撮影される静止画像の数が増加し、データ量が増加する。   In order to present a natural sense of movement at low speeds, it is conceivable to sufficiently narrow the shooting interval of still images, which are the frames that make up a moving image. As a result, the number of still images to be photographed increases and the amount of data increases.

したがって、データ量の増加を抑制しつつ、提示される移動感覚を向上させることが望まれる。   Therefore, it is desired to improve the sense of movement that is presented while suppressing an increase in the amount of data.

本発明のある態様は、複数の位置で撮影された複数のキーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する記憶部と、仮想的に移動するユーザ位置を取得する取得部と、前記記憶部に記憶された複数のキーフレーム画像の中から、前記撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択する選択部と、前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの前記撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得る補間処理部と、を備える動画像生成システムである。上記のキーフレーム画像は、全方位画像であるのが好ましい。   An aspect of the present invention includes a storage unit that stores a plurality of key frame images photographed at a plurality of positions in association with photographing positions of the plurality of key frame images, and a user position that virtually moves An acquisition unit that acquires a plurality of key frame images stored in the storage unit, a selection unit that selects a plurality of key frame images whose shooting position is in the vicinity of the user position, and the user position An interpolation processing unit that obtains an interpolated frame image at the user position from at least one of the selected plurality of key frame images by an interpolation process based on a distance from each of the plurality of selected key frame images and the shooting position. And a moving image generation system. The key frame image is preferably an omnidirectional image.

上記の態様において、前記動画像生成システムのうち記憶部を除く部分は、動画像生成装置を構成することができる。本発明の他の態様は、動画像生成装置として、コンピュータを機能させるためのコンピュータプログラムである。本発明の他の態様は、動画像生成システムとして、コンピュータを機能させるためのコンピュータプログラムであってもよい。本発明の他の態様は、前記コンピュータプログラムを記録した記録媒体である。   In the above aspect, a portion excluding the storage unit in the moving image generation system may constitute a moving image generation device. Another aspect of the present invention is a computer program for causing a computer to function as a moving image generating apparatus. Another aspect of the present invention may be a computer program for causing a computer to function as a moving image generation system. Another aspect of the present invention is a recording medium on which the computer program is recorded.

本発明の更に他の態様は、仮想的に移動するユーザ位置を取得し、複数のキーフレーム画像の中から、撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択し、前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得ることを含む動画像生成方法である。   According to still another aspect of the present invention, a virtual moving user position is acquired, and a plurality of key frame images whose shooting positions are in the vicinity of the user position are selected from a plurality of key frame images, An interpolation frame image at the user position is obtained from at least one of the selected plurality of key frame images by an interpolation process based on a distance between the user position and each of the plurality of selected key frame images. It is the moving image generation method containing.

本発明によれば、データ量の増加を抑制しつつ、提示される移動感覚を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the movement feeling shown can be improved, suppressing the increase in data amount.

動画像生成システムの構成図である。It is a block diagram of a moving image generation system. 動画像生成処理を示すフローチャートである。It is a flowchart which shows a moving image generation process. アルファブレンディングによる補間フレーム画像生成の説明図である。It is explanatory drawing of the interpolation frame image production | generation by alpha blending. α値の設定例である。It is an example of setting α value. キーフレーム画像データベースの例である。It is an example of a key frame image database. 補間フレーム画像生成の他の例を示す説明図である。It is explanatory drawing which shows the other example of an interpolation frame image production | generation. 動画像生成処理を示すフローチャートである。It is a flowchart which shows a moving image generation process. 画像変形による補間フレーム画像生成の説明図である。It is explanatory drawing of the interpolation frame image generation by image deformation | transformation. 2次元移動空間を示す図である。It is a figure which shows a two-dimensional movement space. キーフレーム画像データベースの例である。It is an example of a key frame image database. 3次元移動空間を示す図である。It is a figure which shows a three-dimensional movement space. キーフレーム画像データベースの例である。It is an example of a key frame image database. 画像取得手順を示すフローチャートである。It is a flowchart which shows an image acquisition procedure. キーフレーム画像取得の優先度の設定例である。It is an example of setting the priority of key frame image acquisition.

以下、本発明の好ましい実施形態を、添付図面を参照しながら説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

[1.動画像生成システム]
図1に示すように、動画像生成システム10は、サーバ20と、動画像生成装置30と、を備えている。サーバ20(記憶部;第1記憶装置)は、インターネットなどのネットワーク上に設けられており、動画像を構成するキーフレーム画像を記憶するキーフレーム画像データベース22を備えている。本実施形態において、サーバ20と動画像生成装置30とは分離した装置として設けられているが、両者を一体的な装置として設けても良い。つまり、動画像生成システム10は、図1に示す動画像生成装置30にキーフレーム画像データベース20を設けることで構成されていてもよい。また、動画像生成システム10は、図1に示すサーバ20に、処理装置40の機能を設けることで構成されていてもよい。図1に示す処理装置40の一部の機能がサーバ20に設けられていても良い。
[1. Video generation system]
As shown in FIG. 1, the moving image generation system 10 includes a server 20 and a moving image generation device 30. The server 20 (storage unit: first storage device) is provided on a network such as the Internet, and includes a key frame image database 22 that stores key frame images constituting a moving image. In the present embodiment, the server 20 and the moving image generating device 30 are provided as separate devices, but they may be provided as an integrated device. That is, the moving image generation system 10 may be configured by providing the key frame image database 20 in the moving image generation device 30 shown in FIG. The moving image generation system 10 may be configured by providing the server 20 shown in FIG. 1 with the function of the processing device 40. Some functions of the processing device 40 illustrated in FIG. 1 may be provided in the server 20.

キーフレーム画像は、仮想的な走行環境を実現するための空間映像(動画像)を生成するために用いられる。本実施形態のキーフレーム画像は、実世界の各地点をカメラによって撮影した静止画像である。静止画像としては、通常のカメラで撮影した標準的な縦横比の画像であってもよし、パノラマ画像であってもよい。パノラマ画像としては全方位パノラマ画像(全天球画像)が好ましい。以下では、キーフレーム画像は、全方位パノラマ画像であるとして説明する。   The key frame image is used to generate a spatial video (moving image) for realizing a virtual driving environment. The key frame image of the present embodiment is a still image obtained by photographing each point in the real world with a camera. The still image may be a standard aspect ratio image taken with a normal camera or a panoramic image. The panoramic image is preferably an omnidirectional panoramic image (omnidirectional image). In the following description, it is assumed that the key frame image is an omnidirectional panoramic image.

キーフレーム画像データベース22は、複数のキーフレーム画像と、複数のキーフレーム画像それぞれの撮影位置と、を対応付けて記憶している。キーフレーム画像データベース22は、動画像生成装置30によって検索キーとして位置(仮想的なユーザ位置)が指定されると、撮影位置が指定された位置の近傍である複数のキーフレーム画像を抽出する。キーフレーム画像データベース22は、抽出された複数のキーフレーム画像及びそれらの撮影位置を動画像生成装置30に与える。   The key frame image database 22 stores a plurality of key frame images and shooting positions of the plurality of key frame images in association with each other. When a position (virtual user position) is designated as a search key by the moving image generation device 30, the key frame image database 22 extracts a plurality of key frame images in the vicinity of the designated position. The key frame image database 22 gives the extracted plurality of key frame images and their shooting positions to the moving image generation device 30.

複数のキーフレーム画像の撮影間隔は、例えば、80cmから20m程度とすることができる。隣接する撮影位置における複数のキーフレーム画像には、少なくとも一部において同じ被写体が撮影されているのが好ましい。上記の程度の撮影間隔であると、人の歩行又は走行速度に合わせて、キーフレーム画像だけを切替表示すると、スムーズに変化する映像に見えないが、撮影間隔が比較的広いため、キーフレーム画像の数の増加を抑えて、サーバ20に蓄積されるデータ量を抑えることができる。また、サーバ20から処理装置40に与えられるキーフレーム画像数を抑えることができるため、サーバ20と処理装置40との間の通信トラフィックの増大も防止できる。   The shooting interval of the plurality of key frame images can be set to about 80 cm to 20 m, for example. It is preferable that at least a part of the same subject is photographed in a plurality of key frame images at adjacent photographing positions. When the shooting interval is as described above, when only the key frame image is switched and displayed in accordance with the walking or running speed of the person, the video does not appear to change smoothly, but since the shooting interval is relatively wide, the key frame image Thus, the amount of data stored in the server 20 can be suppressed. In addition, since the number of key frame images given from the server 20 to the processing device 40 can be suppressed, an increase in communication traffic between the server 20 and the processing device 40 can be prevented.

画像生成装置30は、サーバ20に記憶されたキーフレーム画像を取得し、取得したキーフレーム画像から、ユーザ位置に応じた補間フレーム画像を生成する。画像生成装置30は、キーフレーム画像と補間フレーム画像を、動画像を構成するフレーム画像として用いる。本実施形態の動画像は、仮想的なユーザの移動に応じてユーザに提示される風景が変化する画像であり、実際の場所を訪れることなく、その場所を移動している移動感覚をユーザに提示する。   The image generation device 30 acquires a key frame image stored in the server 20, and generates an interpolation frame image corresponding to the user position from the acquired key frame image. The image generation device 30 uses the key frame image and the interpolated frame image as frame images constituting a moving image. The moving image of the present embodiment is an image in which the scenery presented to the user changes according to the virtual user's movement, and gives the user a sense of movement while moving the place without visiting the actual place. Present.

仮想的なユーザ位置が、キーフレーム画像の撮影位置に一致する場合には、キーフレーム画像がユーザに提示される。一方、仮想的なユーザ位置が、複数のキーフレーム画像それぞれの撮影位置の間に位置する場合には、補間フレーム画像がユーザに提示される。補間フレーム画像は、複数のキーフレーム画像それぞれの撮影位置と、現在のユーザ位置と、の位置関係の変化に応じて変化する。ユーザが複数のキーフレーム画像それぞれの撮影位置の間を移動する場合には、ユーザ位置に応じて変化する補間フレーム画像がユーザに提示される。これにより、ユーザは自然な移動感覚が得られる。   When the virtual user position matches the shooting position of the key frame image, the key frame image is presented to the user. On the other hand, when the virtual user position is located between the photographing positions of the plurality of key frame images, the interpolation frame image is presented to the user. The interpolated frame image changes according to a change in the positional relationship between the shooting position of each of the plurality of key frame images and the current user position. When the user moves between the shooting positions of each of the plurality of key frame images, an interpolation frame image that changes in accordance with the user position is presented to the user. Thereby, the user can get a natural sense of movement.

画像生成装置30は、例えば、トレッドミル又はフィットネスバイク等のような運動器具に設けられる。この場合、画像生成装置30は、ユーザがトレッドミル上を走行する速度又はフィットネスバイクによって走行する速度に合わせて風景が変化する動画像を表示する。これにより、運動中のユーザに対して仮想的な移動感覚を提示することができ、運動に楽しさを付与することができる。   The image generating device 30 is provided in an exercise device such as a treadmill or a fitness bike, for example. In this case, the image generation device 30 displays a moving image in which the landscape changes according to the speed at which the user runs on the treadmill or the speed at which the user runs on the fitness bike. Thereby, a virtual movement sensation can be presented to the user who is exercising, and fun can be given to the exercise.

画像生成装置30は、処理装置40と、表示装置50と、速度検出器52と、方向検出器54と、を備える。画像生成装置30では動画を生成するだけで動画像表示を行わない場合は、表示装置50を省略してもよい。また、不要であれば、速度検出器52及び方向検出器54の少なくともいずれか一方を省略してもよい。   The image generation device 30 includes a processing device 40, a display device 50, a speed detector 52, and a direction detector 54. If the image generation device 30 only generates a moving image and does not display a moving image, the display device 50 may be omitted. If unnecessary, at least one of the speed detector 52 and the direction detector 54 may be omitted.

処理装置40は、プロセッサ41及びメモリ42を有するコンピュータによって構成されている。プロセッサ41は、ユーザ位置取得処理43、キーフレーム画像選択処理44、キーフレーム画像取得処理45、及び補間処理46などの処理を行う。メモリ42(記憶部;第2記憶装置)は、サーバ20から取得した複数のキーフレーム画像データベース22と、それらの撮影装置と、を対応付けたままで記憶する。   The processing device 40 is configured by a computer having a processor 41 and a memory 42. The processor 41 performs processing such as user position acquisition processing 43, key frame image selection processing 44, key frame image acquisition processing 45, and interpolation processing 46. The memory 42 (storage unit; second storage device) stores a plurality of key frame image databases 22 acquired from the server 20 and their photographing devices in association with each other.

ユーザ位置取得処理43は、仮想的に移動するユーザ位置取得のための取得部としてプロセッサ41を機能させる処理である。キーフレーム画像選択処理44は、撮影位置が仮想的なユーザ位置の近傍であるキーフレーム画像を選択するための選択部としてプロセッサ41を機能させる処理である。キーフレーム画像取得処理45は、選択されたキーフレーム画像とその撮影位置をサーバ20から取得しメモリ42に記憶させるための画像取得部としてプロセッサ41を機能させる処理である。補間処理46は、選択された複数のキーフレーム画像の少なくとも一つからユーザ位置における補間フレーム画像を得る補間処理部としてプロセッサ41を機能させる処理である。   The user position acquisition process 43 is a process for causing the processor 41 to function as an acquisition unit for acquiring a user position that moves virtually. The key frame image selection process 44 is a process for causing the processor 41 to function as a selection unit for selecting a key frame image whose shooting position is in the vicinity of the virtual user position. The key frame image acquisition process 45 is a process for causing the processor 41 to function as an image acquisition unit for acquiring the selected key frame image and its shooting position from the server 20 and storing them in the memory 42. The interpolation process 46 is a process for causing the processor 41 to function as an interpolation processing unit that obtains an interpolated frame image at the user position from at least one of a plurality of selected key frame images.

プロセッサ41は、処理装置40が有するコンピュータプログラムが実行されることにより、上記処理43,44,45,46を実行し、プロセッサ41(コンピュータ)を、上記の取得部、選択部、画像取得部、及び補間処理部として機能させる。   The processor 41 executes the processes 43, 44, 45, and 46 by executing a computer program included in the processing device 40, and converts the processor 41 (computer) into the acquisition unit, the selection unit, the image acquisition unit, And function as an interpolation processing unit.

表示装置50は、生成された動画像を表示する。表示装置50は、例えば、平面ディスプレイ、複数のディスプレイを組み合わせてユーザの全周囲を覆う没入型ディスプレイ、ユーザの周囲を覆うドーム型ディスプレイ、及びユーザの頭部に装着されるヘッドマウントディスプレイなどのいずれかによって構成される。ヘッドマウントディスプレイのように、一度に表示可能な範囲が、全方位パノラマ画像の全範囲に比べて狭い表示装置50の場合、ユーザ頭部又は体の向きを仮想的な移動方向として検出するものであってもよい。表示装置50がヘッドマウントディスプレイである場合、ヘッドマウントディスプレイが検出する頭部の向きや動きに応じて表示装置50に表示される画像が生成される。   The display device 50 displays the generated moving image. Examples of the display device 50 include a flat display, an immersive display that combines a plurality of displays to cover the entire periphery of the user, a dome-shaped display that covers the periphery of the user, and a head-mounted display that is mounted on the user's head. Consists of. In the case of the display device 50 in which the range that can be displayed at one time is narrower than the entire range of the omnidirectional panoramic image, such as a head-mounted display, the orientation of the user's head or body is detected as a virtual moving direction. There may be. When the display device 50 is a head-mounted display, an image to be displayed on the display device 50 is generated according to the orientation and movement of the head detected by the head-mounted display.

速度検出器52は、ユーザの仮想的な移動速度を検出する。トレッドミル又はフィットネスバイク等のように、ユーザの歩行又は走行を模した運動を行う運動器具に動画生成装置30が設けられている場合、運動器具が速度検出機能を有している。この場合、運動器具の速度検出機能を、本実施形態の速度検出器52として用いることができる。ユーザの移動速度が変化せず一定であることを前提とする場合又は処理装置40が移動速度を設定する場合、速度検出器52は不要である。また、ユーザの仮想的な移動に関し、ユーザが実際に歩行又は走行のような運動を行っている必要はなく、単に、ユーザが操作する操作器によって、ユーザの位置及び/又は移動速度が操作されるものであってもよい。この場合、ユーザが操作する操作器が、本実施形態の速度検出器52として機能する。   The speed detector 52 detects the virtual moving speed of the user. When the moving image generating device 30 is provided in an exercise apparatus that performs exercise simulating a user's walking or running, such as a treadmill or a fitness bike, the exercise apparatus has a speed detection function. In this case, the speed detection function of the exercise apparatus can be used as the speed detector 52 of the present embodiment. When it is assumed that the user's moving speed is constant without changing, or when the processing device 40 sets the moving speed, the speed detector 52 is unnecessary. Further, regarding the virtual movement of the user, the user does not have to actually perform an exercise such as walking or running, and the user's position and / or moving speed is simply operated by an operating device operated by the user. It may be a thing. In this case, the operating device operated by the user functions as the speed detector 52 of the present embodiment.

方向検出器54は、仮想空間におけるユーザの仮想的な移動方向を検出する。方向検出器54は、例えば、ユーザの移動方向を手動で操作する操作器として構成することができる。また、方向検出器54は、移動方向選択のためにユーザ頭部又は体の向きを検出し、ユーザ頭部又は体の向きを仮想的な移動方向として検出するものであってもよい。表示装置50がヘッドマウントディスプレイである場合、ヘッドマウントディスプレイに設けられた姿勢センサを方向検出器54として用いることができる。トレッドミル又はフィットネスバイクのように一次元移動を前提とした運動器具の場合、方向検出器54は省略することができる。   The direction detector 54 detects the virtual moving direction of the user in the virtual space. The direction detector 54 can be configured, for example, as an operating device that manually operates the moving direction of the user. Further, the direction detector 54 may detect the orientation of the user's head or body for selecting the moving direction, and detect the orientation of the user's head or body as a virtual moving direction. When the display device 50 is a head mounted display, an attitude sensor provided in the head mounted display can be used as the direction detector 54. In the case of an exercise apparatus that assumes one-dimensional movement, such as a treadmill or fitness bike, the direction detector 54 can be omitted.

[2.動画像生成処理]
[2.1 動画像生成処理の第1例]
図2は、処理装置40のプロセッサ41が実行する動画像生成処理の第1例を示している。この第1例では、仮想的な移動空間として1次元空間を想定する。第1例では、ユーザの移動方向は考慮しない。後述するように移動空間は2次元空間又は3次元空間であってもよい。
[2. Video generation processing]
[2.1 First example of moving image generation processing]
FIG. 2 shows a first example of a moving image generation process executed by the processor 41 of the processing device 40. In this first example, a one-dimensional space is assumed as a virtual movement space. In the first example, the moving direction of the user is not considered. As will be described later, the moving space may be a two-dimensional space or a three-dimensional space.

処理装置40は、ユーザの速度vとユーザ位置Pxを取得する(ステップS11)。ユーザ速度vは、例えば、速度検出器52から与えられる。処理装置40は、ユーザ位置取得処理43を行って、ユーザ速度vからユーザ位置Pxを取得する。具体的には、処理装置40は、動画像生成処理の開始時点でのユーザの仮想的な初期位置(現在位置)と、取得した速度vと、に基づいて、初期位置からの移動量を算出し、ユーザの仮想的な移動後の現在位置(ユーザ位置)Pxを求める。ユーザ位置Pxは、処理装置40自体が設定するものであってもよい。   The processing device 40 acquires the user speed v and the user position Px (step S11). The user speed v is given from the speed detector 52, for example. The processing device 40 performs a user position acquisition process 43 to acquire the user position Px from the user speed v. Specifically, the processing device 40 calculates the movement amount from the initial position based on the virtual initial position (current position) of the user at the start of the moving image generation process and the acquired speed v. The current position (user position) Px after the virtual movement of the user is obtained. The user position Px may be set by the processing device 40 itself.

処理装置40は、キーフレーム画像選択処理44及びキーフレーム画像取得処理45を実行する(ステップS12)。つまり、処理装置40は、キーフレーム画像選択処理44を行うことで、速度v及びユーザ位置Pxに基づき、サーバ20に記憶された複数のキーフレーム画像から、取得すべき複数のキーフレーム画像A,Bを選択する。取得すべき複数のキーフレーム画像は、撮影位置P,Pが、ユーザ位置Pxの近傍である複数の(2つの)キーフレーム画像A,Bである。図3に示すように、移動空間が1次元である場合、例えば、ユーザ位置Pxに最も近接する2つのキーフレーム画像A,Bが選択される。複数のキーフレーム画像の選択は、選択される画像A,Bの撮影位置P,Pの中間に、ユーザ位置Pxが位置するように行われる。 The processing device 40 executes a key frame image selection process 44 and a key frame image acquisition process 45 (step S12). In other words, the processing device 40 performs the key frame image selection process 44, thereby, based on the speed v and the user position Px, from the plurality of key frame images stored in the server 20, a plurality of key frame images A, Select B. The plurality of key frame images to be acquired are a plurality (two) of key frame images A and B whose shooting positions P A and P B are in the vicinity of the user position Px. As shown in FIG. 3, when the moving space is one-dimensional, for example, two key frame images A and B that are closest to the user position Px are selected. The selection of the plurality of key frame images is performed such that the user position Px is positioned between the shooting positions P A and P B of the selected images A and B.

本実施形態では、ユーザ位置Pxが同一であっても、ユーザの仮想的な移動速度vに応じて、異なるキーフレーム画像が選択される。この点ついては後述する。   In the present embodiment, even if the user position Px is the same, different key frame images are selected according to the virtual moving speed v of the user. This point will be described later.

処理装置40は、キーフレーム画像取得処理45を行うことで、選択された複数のキーフレーム画像A,B及びそれらの撮影位置P,Pをサーバ20から取得する。取得した複数のキーフレーム画像A,B及びそれらの撮影位置P,Pは、メモリ42に記憶される。処理装置40は、メモリ42に記憶された複数のキーフレーム画像A,B及びそれらの撮影位置P,Pに基づいて、その後の処理を行う。 The processing device 40 acquires a plurality of selected key frame images A and B and their photographing positions P A and P B from the server 20 by performing a key frame image acquisition process 45. The acquired plurality of key frame images A and B and their photographing positions P A and P B are stored in the memory 42. The processing device 40 performs subsequent processing based on the plurality of key frame images A and B and their photographing positions P A and P B stored in the memory 42.

処理装置40は、ユーザ位置Pxと、取得した複数のキーフレーム画像A,Bの撮影位置P,Pそれぞれとの距離d,dを算出する。距離d(第1距離d)は、ユーザ位置Pxと選択された第1キーフレーム画像Aとの距離であり、距離d(第2距離d)は、ユーザ位置Pxと選択された第2キーフレーム画像Bとの距離である。距離d,dは、サーバ20によって算出され、処理装置40に提供されてもよい。 The processing device 40 calculates distances d 1 and d 2 between the user position Px and the captured positions P A and P B of the acquired key frame images A and B, respectively. The distance d 1 (first distance d 1 ) is a distance between the user position Px and the selected first key frame image A, and the distance d 2 (second distance d 2 ) is selected as the user position Px. The distance from the second key frame image B. The distances d 1 and d 2 may be calculated by the server 20 and provided to the processing device 40.

処理装置40は、距離d,dに基づく補間処理46を行うことで、取得した複数のキーフレーム画像A,Bから、ユーザ位置Pxが仮想的な撮影位置(視点位置)となる補間フレーム画像Xを得る。第1例において、補間フレーム画像Xは、複数のキーフレーム画像A,Bのアルファブレンディング(第1処理)によって得られる。処理装置40は、ステップS13において、距離d,dに基づいて、アルファブレンディングに用いられるα値(透明度)を設定する。α値は、サーバ20によって設定されて、処理装置40に提供されても良い。また、アルファブレンディングも、サーバ20によって行われ、アルファブレンディングによって得られた補間フレーム画像Xが処理装置40に提供されても良い。 The processing device 40 performs an interpolation process 46 based on the distances d 1 and d 2 , whereby an interpolation frame in which the user position Px becomes a virtual shooting position (viewpoint position) from the plurality of acquired key frame images A and B. An image X is obtained. In the first example, the interpolated frame image X is obtained by alpha blending (first processing) of a plurality of key frame images A and B. In step S13, the processing device 40 sets an α value (transparency) used for alpha blending based on the distances d 1 and d 2 . The α value may be set by the server 20 and provided to the processing device 40. Alpha blending may also be performed by the server 20, and the interpolated frame image X obtained by alpha blending may be provided to the processing device 40.

本実施形態では、第1キーフレーム画像Aに乗じられるα値としてαと、第2キーフレーム画像Bに乗じられるα値としてαと、が設定される。なお、本実施形態では、後述の式から明らかなように、α=1−αであるため、αを算出すればαが得られる。 In this embodiment, the alpha 1 as alpha value to be multiplied to the first key frame image A, and alpha 2 as alpha value to be multiplied to the second key frame image B, and is set. In this embodiment, as will be apparent from the equation described later, α 2 = 1−α 1 , and thus α 2 can be obtained by calculating α 1 .

各画像A,Bに乗じられるα値(α,α)それぞれは、0から1の値をとり、0のときに透明であり、1のときに不透明である。αは、ユーザ位置Pxと第1キーフレーム画像Aの撮影位置Pとの距離dが小さいほど、大きな値に設定される(透明度が低く設定される)。αも、ユーザ位置Pxと第2キーフレーム画像Bの撮影位置Pとの距離dが小さいほど、大きな値に設定される(透明度が低く設定される)。 Each of the α values (α 1 , α 2 ) multiplied by the images A and B takes a value from 0 to 1, is transparent when 0, and is opaque when 1. alpha 1, the more the distance d 1 between the imaging position P A of the user position Px and the first key frame image A is small, is the set to a large value (transparency is set low). α 2 is also set to a larger value (transparency is set to be lower) as the distance d 2 between the user position Px and the shooting position P B of the second key frame image B is smaller.

本実施形態において、α値(α,α)は、距離d,dの関数で表される。α,αは、例えば、以下の式で算出される。
In the present embodiment, the α value (α 1 , α 2 ) is expressed as a function of the distances d 1 and d 2 . α 1 and α 2 are calculated by the following equations, for example.

図4(a)は、上記式によって設定されるα,αの値(縦軸)を示している。横軸は、仮想的なユーザ位置であり、位置Pから位置Pまでの位置範囲を示している。図4(a)において、αは、位置Pで最大(1)であり、位置Pに向かうにしたがって小さくなり、位置Pで最小(0)となる。αは、位置Pで最小(0)であり、位置Pに向かうにしたがって大きくなり、位置Pで最大(1)となる。 FIG. 4A shows α 1 and α 2 values (vertical axis) set by the above formula. The horizontal axis is a virtual user position indicates a position range from a position P A to the position P B. In FIG. 4 (a), alpha 1 is the maximum (1) at a position P A, decreases toward the position P B, the minimum (0) at the position P B. α 2 is the minimum (0) at the position P A , increases toward the position P B, and reaches the maximum (1) at the position P B.

ユーザ位置Pxのための補間フレーム画像Xは、以下の式のように、複数のキーフレーム画像A,Bそれぞれにα値(α,α)を乗じることで得られる。
The interpolated frame image X for the user position Px is obtained by multiplying each of the plurality of key frame images A and B by an α value (α 1 , α 2 ) as in the following equation.

図3に示すように、撮影位置の異なる複数のキーフレーム画像A,Bに、位置P付近にある建物が写っている場合、両キーフレーム画像A,Bの撮影位置P,Pが異なるため、両キーフレーム画像A,Bに写っている建物の大きさ及び位置は、多少異なる。このような複数のキーフレーム画像A,Bをアルファブレンディングによって重ね合わせることで、画像A,B中の建物(被写体)が二重にみえる画像となる。 As shown in FIG. 3, a plurality of key frames image A different photographing positions, to B, and that is reflected is building in the vicinity of the position P D, both the key frame image A, the shooting position P A of B, and P B Because they are different, the size and position of the buildings shown in both key frame images A and B are slightly different. By superimposing such a plurality of key frame images A and B by alpha blending, an image in which the buildings (subjects) in the images A and B appear double is obtained.

仮想的なユーザ位置Pxが位置Pから位置Pまで変化する場合において、ユーザ位置Pxが位置Pであれば、α=1,α=0となり、補間フレーム画像Xは第1キーフレーム画像Aと等しくなるため、ユーザには、画像Aに写っている建物の像だけが提示される。 In the case where a virtual user position Px is changed from the position P A to the position P B, if user position Px is positioned P A, α 1 = 1, α 2 = 0 , and the interpolation frame image X first key Since it is equal to the frame image A, the user is presented only with the image of the building shown in the image A.

図4(a)に示すように、ユーザ位置Pxが、位置Pと位置Pとの間であるが位置Pにより近い位置である場合、画像Aの透明度が相対的に低く画像Bの透明度が相対的に高くなるため(α>α)、画像Aに写っている建物の像が濃く、画像Bに写っている建物の像が薄い状態で、建物が二重にみえる。 As shown in FIG. 4 (a), the user position Px is, when it is between positions P B and the position P A is a position closer to the position P A, the transparency of the image A is relatively low image B Since the transparency is relatively high (α 1 > α 2 ), the building image appears dark in the image A and the building image appears in the image B is thin.

ユーザ位置Pxが、位置Pと位置Pとの間であるが位置Pにより近い位置である場合、画像Aの透明度が相対的に高く画像Bの透明度が相対的に低くなるため(α<α)、画像Aに写っている建物の像が薄く、画像Bに写っている建物の像が濃い状態で、建物が二重にみえる。 When the user position Px is between the position P A and the position P B but closer to the position P B , the transparency of the image A is relatively high and the transparency of the image B is relatively low (α 12 ), the building image shown in the image A is thin, and the building image shown in the image B is dark, and the building looks double.

ユーザ位置Pxが、位置Pであれば、α=0,α=1となり、補間フレーム画像Xは第2キーフレーム画像Bと等しくなるため、ユーザには、画像Bに写っている建物の像だけが提示される。 If the user position Px is the position P B , α 1 = 0 and α 2 = 1, and the interpolation frame image X is equal to the second key frame image B. Therefore, the user can see the building shown in the image B. Only the image of is presented.

図4(a)に示すようにα,αが、ユーザ位置Pxの変化応じて連続的に変化することで、ユーザの移動に応じて補間フレーム画像Xも連続的に変化する。ユーザが位置Pと位置Pとの間を移動中は、ユーザの移動じて変化する補間フレーム画像Xが表示装置50に表示される。補間フレーム画像Xは、静止画像としてみると被写体が二重にみえることもある画像であるが、ユーザの移動に応じて被写体の二重化状態が変化するため、人の目には移動に伴う自然な風景の変化として写る。したがって、ユーザに対してスムーズな連続動画像として提示できる。 As shown in FIG. 4A, α 1 and α 2 are continuously changed according to the change of the user position Px, so that the interpolated frame image X is also continuously changed according to the movement of the user. While the user is moving between the position P A and the position P B , the interpolation frame image X that changes as the user moves is displayed on the display device 50. The interpolated frame image X is an image in which the subject may appear double when viewed as a still image. However, since the subject's duplex state changes according to the movement of the user, it is natural for the human eye to move. It appears as a change of scenery. Therefore, it can be presented to the user as a smooth continuous moving image.

ユーザ位置Pxの変化応じたα,αの変化の仕方は、図4(a)に示す例に限られない。図4(a)のようにα,αが直線的に変化するのではなく、図4(a)に示すように曲線的に変化してもよい。図4(c)に示すように、ユーザ位置Pxが、位置Pから離れても、位置P近傍であれば、α1=1,α2=0を維持して、キーフレーム画像Aが表示されるようにし、同様に、ユーザ位置Pxが、位置Pから離れても、位置P近傍であれば、α1=0,α2=1を維持して、キーフレーム画像Bが表示されるようにしてもよい。キーフレーム画像A,Bに対してアルファブレンディング以外の画像処理(例えば、第2例及び/又は第3例に示す処理)も施される場合には、α,αを図4(d)のように変化させてもよい。 The way of changing α 1 and α 2 according to the change of the user position Px is not limited to the example shown in FIG. Instead of α 1 and α 2 changing linearly as shown in FIG. 4A, they may change like a curve as shown in FIG. As shown in FIG. 4 (c), the user position Px is, even away from the position P A, if the position P A near, [alpha] 1 = 1, while maintaining the [alpha] 2 = 0, the key frame image A is displayed the so that, similarly, the user position Px is, even away from the position P B, if the position P B vicinity, [alpha] 1 = 0, to maintain the [alpha] 2 = 1, as the key frame image B is displayed May be. When image processing (for example, processing shown in the second example and / or the third example) other than alpha blending is performed on the key frame images A and B, α 1 and α 2 are set as shown in FIG. It may be changed as follows.

図4(c)のようにα値を設定すると、ユーザ位置Pxが、キーフレーム画像A,Bの撮影位置P,Pでなくてもそれらの近傍位置である場合には、キーフレーム画像A,Bを表示し、撮影位置P,Pからある程度離れてから補間フレーム画像を表示することができる。これにより、ユーザ位置が、撮影位置P,Pからわずかに離れただけでは、補間フレーム画像Xを生成する必要がなく、補間フレーム画像Xの生成のための時間的余裕が確保できる。 When the α value is set as shown in FIG. 4C, if the user position Px is not the shooting positions P A and P B of the key frame images A and B , but is a position near them, the key frame image A and B are displayed, and the interpolation frame image can be displayed after a certain distance from the shooting positions P A and P B. Thereby, it is not necessary to generate the interpolation frame image X when the user position is slightly away from the shooting positions P A and P B, and a time margin for generating the interpolation frame image X can be secured.

図5は、ユーザの仮想的な移動速度vが低速である場合(例えば、歩いている場合)及び高速である場合(例えば、走っている場合)において、キーフレーム画像選択処理44によって、選択されるキーフレーム画像を示している。ユーザ位置Pxが、図3に示す位置(位置Pと位置Pの間の位置)である場合において、低速であれば、キーフレーム画像A,Bが選択され、高速であれば、キーフレーム画像A,Cが選択される。 FIG. 5 is selected by the key frame image selection process 44 when the virtual moving speed v of the user is low (for example, when walking) and high (for example, when running). A key frame image is shown. User position Px is in the case where the position shown in FIG. 3 (a position between the positions P A and the position P B), if slow, the key frame images A, B is selected, if fast, keyframes Images A and C are selected.

移動速度vが低速であると比較的狭い撮影間隔で撮影された複数のキーフレーム画像から補間フレーム画像を生成したほうが、自然な移動感覚が得られる。一方、移動速度vが高速であると、比較的広い撮影間隔で撮影された複数のキーフレーム画像を用いても、自然な移動感覚を維持できる。例えば、図3において隣接する撮影位置同士の撮影間隔(キーフレーム間隔)を1とすると、移動速度vが所定の閾値よりも小さい場合、選択される複数のキーフレーム画像のキーフレーム間隔が1になるように、位置P,Pで撮影されたキーフレーム画像A,Bが選択される。また、移動速度が所定の閾値よりも大きい場合、選択される複数のキーフレーム画像のキーフレーム間隔が2になるように、位置P,Pで撮影されたキーフレーム画像A,Cが選択される。 When the moving speed v is low, a natural moving feeling can be obtained by generating an interpolated frame image from a plurality of key frame images shot at a relatively narrow shooting interval. On the other hand, when the moving speed v is high, a natural moving feeling can be maintained even if a plurality of key frame images photographed at a relatively wide photographing interval are used. For example, when the shooting interval (key frame interval) between adjacent shooting positions in FIG. 3 is 1, when the moving speed v is smaller than a predetermined threshold, the key frame interval of a plurality of selected key frame images is 1. so that the position P A, key taken with P B frame images A, B are selected. Further, when the moving speed is larger than a predetermined threshold, the key frame images A and C photographed at the positions P A and P c are selected so that the key frame interval of the plurality of selected key frame images is 2. Is done.

[2.2 動画像生成の第2例]
補間フレーム画像Xを生成する際には、キーフレーム画像A,Bそのものに対してアルファブレンディングするのではなく、距離d,dに応じた画像処理(第2処理)が行われたキーフレーム画像(補正後キーフレーム画像)に対してアルファブレンディングを行っても良い。距離d,dに応じた画像処理(第2処理)は、アルファブレンディング以外の画像処理によって、ユーザ位置Pxと撮影位置P,Pとの位置関係に応じて、キーフレーム画像A,Bを強調化したり、非強調化(ぼかしなど)をしたりする処理である。
[2.2 Second Example of Moving Image Generation]
When the interpolated frame image X is generated, the key frame images A and B themselves are not alpha-blended, but are subjected to image processing (second processing) corresponding to the distances d 1 and d 2. Alpha blending may be performed on the image (corrected key frame image). The image processing (second processing) according to the distances d 1 and d 2 is performed by image processing other than alpha blending, depending on the positional relationship between the user position Px and the shooting positions P A and P B. This is a process for emphasizing B or de-emphasizing (such as blurring).

例えば、図6に示すように、ユーザ位置Pxが、二つの撮影位置P,Pのうち、撮影位置Pの方に近く、撮影位置Pからは遠い場合、処理装置40は、キーフレーム画像Aに対して強調化処理を行って人の目により強く提示されるようにした補正後キーフレーム画像A1を生成し、キーフレーム画像Bに対して非強調化処理を行って人の目により弱く提示されるようにした補正後キーフレーム画像B1を生成する。図6には、人の目に被写体である建物をより強く提示する補正後キーフレーム画像A1と、建物をより弱く提示する補正後キーフレーム画像B1を示している。補正後キーフレーム画像A1,B1がアルファブレンディングされることで、両画像A1,B1に設定される透明度の違いに加えて、被写体自体の強調・非強調によって、距離d,dの違いに応じた良好な移動感覚をユーザに提示できる。 For example, as shown in FIG. 6, the user position Px is, of the two imaging position P A, P B, close towards imaging position P A, if far from the shooting location P B, processor 40, key A corrected key frame image A1 is generated by performing an emphasis process on the frame image A so as to be strongly presented to the human eye, and a non-enhancement process is performed on the key frame image B to generate the human eye. To generate a post-correction key frame image B1 that is presented weakly. FIG. 6 shows a corrected key frame image A1 that presents a building that is a subject more strongly to the human eye, and a corrected key frame image B1 that presents a building weaker. Since the post-correction key frame images A1 and B1 are alpha-blended, in addition to the difference in transparency set in both the images A1 and B1, the difference between the distances d 1 and d 2 is caused by the emphasis / non-emphasis of the subject itself. The user can be presented with a good sense of movement.

強調化処理及び非強調化処理は、例えば、画像の明るさ調整処理、コントラスト調整、解像度調整、増減色処理などから選択される一又は複数の処理によって行われる。増減色処理とは、白黒画像をカラー画像にするなどの画像中の色を増加させる増色処理と、カラー画像を白黒画像にするなどの画像中の色を減少させる減色処理と、の総称である。増色処理によって画像を強調化でき、減色処理によって画像を非強調化できる。強調化処理は、エッジ強調処理によっても行うことができ、非強調化処理はぼかし処理によっても行うことができる。   The enhancement process and the non-enhancement process are performed by, for example, one or more processes selected from image brightness adjustment process, contrast adjustment, resolution adjustment, increase / decrease color process, and the like. Increase / decrease color processing is a generic term for color increase processing that increases the color in an image, such as making a black and white image a color image, and color reduction processing that reduces color in the image, such as making a color image a black and white image. is there. The image can be enhanced by the color increase process, and the image can be deemphasized by the color reduction process. The enhancement process can also be performed by edge enhancement process, and the non-enhancement process can also be performed by blurring process.

図6に示す補正後キーフレーム画像A1は、キーフレーム画像Aに対して、明るさを高くし、コントラストを強調し、解像度を高くすることで得たものであり、補正後キーフレーム画像B1は、キーフレーム画像Bに対して、明るさを低くし、コントラストを弱め、解像度を低くすることで得たものである。強調化処理及び非強調化処理は、双方が行われる必要はなく、一方だけが行われても良い。   The corrected key frame image A1 shown in FIG. 6 is obtained by increasing the brightness, enhancing the contrast, and increasing the resolution with respect to the key frame image A. The corrected key frame image B1 is: The key frame image B is obtained by lowering the brightness, lowering the contrast, and lowering the resolution. Both the enhancement process and the non-enhancement process need not be performed, and only one of them may be performed.

第2例において、特に説明をしなかった点については、第1例と同様である。   In the second example, points that are not particularly described are the same as in the first example.

[2.3 動画像生成の第3例]
補間フレーム画像Xを生成する補間処理は、アルファブレンディングに限られない。補間フレーム画像Xは、距離d,dに基づいて、選択された複数のキーフレーム画像の一つに対する画像処理(画像変形)を行うことで、生成されてもよい。
[2.3 Third Example of Moving Image Generation]
The interpolation process for generating the interpolated frame image X is not limited to alpha blending. The interpolated frame image X may be generated by performing image processing (image deformation) on one of a plurality of selected key frame images based on the distances d 1 and d 2 .

図7は、第3例に係る動画像生成処理を示している。図7において、ステップS21及びS22は、図2のステップS11及びS12と同様である。処理装置40は、ステップS23において、選択された複数のキーフレーム画像A,B中の個々の被写体を認識する画像認識処理を行う。処理装置40は、ステップS24において、ユーザ位置Pxに最も近いキーフレーム画像中の個々の被写体を、距離d,dに基づいて変形させて、補間フレーム画像Pxを生成する。 FIG. 7 shows a moving image generation process according to the third example. In FIG. 7, steps S21 and S22 are the same as steps S11 and S12 of FIG. In step S23, the processing device 40 performs image recognition processing for recognizing individual subjects in the selected key frame images A and B. In step S24, the processing device 40 deforms each subject in the key frame image closest to the user position Px based on the distances d 1 and d 2 to generate an interpolation frame image Px.

図8に示すように、キーフレーム画像A中の建物が比較的小さく映り、キーフレーム画像B中の建物が比較的大きく映っており、ユーザ位置Pxは、キーフレーム画像Aの撮影位置PAに近い位置にあるものとする。この場合、処理装置40は、キーフレーム画像Aにおける建物の大きさ(及び位置)と、キーフレーム画像Bにおける建物の大きさ(及び位置)と、距離d,dと、から、ユーザ位置Pxにおける建物の大きさ(及び位置)を求める。この処理を、キーフレーム画像において認識される全ての被写体について行う。これに基づいて、処理装置40は、ユーザ位置Pxにより近い撮影位置Pで撮影されたキーフレーム画像Aをユーザ位置Pxにおける風景に変換するための変換パラメータを得て、その変換パラメータに基づいて、キーフレーム画像Aを画像変換することで、補間フレーム画像Xを得る。 As shown in FIG. 8, the building in the key frame image A is relatively small, the building in the key frame image B is relatively large, and the user position Px is close to the shooting position PA of the key frame image A. It shall be in position. In this case, the processing device 40 calculates the user position from the building size (and position) in the key frame image A, the building size (and position) in the key frame image B, and the distances d 1 and d 2. The size (and position) of the building at Px is obtained. This process is performed for all subjects recognized in the key frame image. Based on this, processor 40 obtains the conversion parameters for converting the shot key frame image A in shooting position P A is closer to the user position Px landscape in user position Px, based on the conversion parameter The interpolated frame image X is obtained by converting the key frame image A.

[2.4 2次元空間におけるキーフレーム画像の選択]
これまでの説明では、仮想的な移動空間が1次元空間であるものとして説明したが、仮想的な移動空間は、図9に示すように2次元であってもよい。サーバ20のキーフレーム画像データベース22には、2次元空間の各地点P〜Pにて撮影されたキーフレーム画像A〜Hが、それらの撮影位置P〜Pと対応付けられて記憶されている。
[2.4 Selection of key frame image in two-dimensional space]
In the description so far, the virtual moving space has been described as being a one-dimensional space, but the virtual moving space may be two-dimensional as shown in FIG. The keyframe image database 22 of the server 20, the key frame image A~H taken at each point P A to P H of the two-dimensional space, associated with their shooting position P A to P H stores Has been.

図9では、ユーザ位置Pxが、位置P,P,P,Pに囲まれた位置にあるものとする。図9において、縦方向及び横方向において隣接する撮影位置同士の撮影間隔(キーフレーム間隔)を1とする。キーフレーム画像選択処理44では、例えば、ユーザ位置Pxからの距離が1以下である複数のキーフレーム画像P,P,Pが選択される。選択されるキーフレーム画像の数は、4以上でもよいし、場合によっては2でもよい。 In FIG. 9, it is assumed that the user position Px is at a position surrounded by the positions P A , P B , P C , and P D. In FIG. 9, the shooting interval (key frame interval) between adjacent shooting positions in the vertical direction and the horizontal direction is 1. In the key frame image selection process 44, for example, a plurality of key-frame image P A is the distance from the user position Px is 1 or less, P B, P C is selected. The number of key frame images to be selected may be four or more, or may be two in some cases.

3つのキーフレーム画像A,B,Cが選択された場合、それぞれの画像A、B,Cに乗じられるα値(α,α,α)は、ユーザ位置Pxから各画像A,B,Cの撮影位置P,P,Pまでの距離d,d,dの関数で表される。α,α,αは、例えば、以下の式で算出される。
When three key frame images A, B, and C are selected, α values (α 1 , α 2 , α 3 ) multiplied by the images A, B, and C are determined from the user position Px to the images A, B, respectively. , shooting position P a of C, P B, it is represented by a function of the distance d 1, d 2, d 3 to P C. α 1 , α 2 , and α 3 are calculated by the following equations, for example.

ユーザ位置Pxのための補間フレーム画像Xは、以下の式のように、複数のキーフレーム画像A,B,Cそれぞれにα値(α,α,α)を乗じることで得られる。
The interpolated frame image X for the user position Px is obtained by multiplying each of the plurality of key frame images A, B, and C by α values (α 1 , α 2 , α 3 ), as in the following equation.

移動空間が2次元である場合においても、移動速度vが所定の閾値よりも小さい場合、選択される複数のキーフレーム画像のキーフレーム間隔が1になるように、位置P,P,Pで撮影されたキーフレーム画像A,B,Cが選択される。また、移動速度が所定の閾値よりも大きい場合、選択される複数のキーフレーム画像のキーフレーム間隔が2になるように、位置P,PE,,P撮影されたキーフレーム画像A,E,F,Gが選択される(図10参照)。 Even when the moving space is two-dimensional, when the moving speed v is smaller than a predetermined threshold value, the positions P A , P B , P are set so that the key frame interval of the selected key frame images is 1. shot key frame image A with C, B, C are selected. Further, when the moving speed is larger than a predetermined threshold, the key frame images photographed at the positions P A , P E, P F , and P G so that the key frame interval of the plurality of selected key frame images is 2. A, E, F, and G are selected (see FIG. 10).

[2.5 3次元空間におけるキーフレーム画像の選択]
仮想的な移動空間は、図11に示すように3次元であってもよい。サーバ20のキーフレーム画像データベース22には、3次元空間の各地点P〜Pにて撮影されたキーフレーム画像A〜Hが、それらの撮影位置P〜Pと対応付けられて記憶されている。
[2.5 Selection of key frame image in 3D space]
The virtual moving space may be three-dimensional as shown in FIG. The keyframe image database 22 of the server 20, the key frame image A~H taken at each point P A to P H of the three-dimensional space, in association with their shooting position P A to P H storage Has been.

図11では、ユーザ位置Pxが、位置P〜Pに囲まれた位置にあるものとする。図13において、3次元の各方向において隣接する撮影位置同士の撮影間隔(キーフレーム間隔)を1とする。キーフレーム画像選択処理44では、例えば、ユーザ位置Pxからの距離が1以下である複数のキーフレーム画像P,P,P,P選択される。選択されるキーフレーム画像の数は、5以上でもよいし、場合によっては2又は3でもよい。 In FIG. 11, it is assumed that the user position Px is at a position surrounded by the positions P A to P H. In FIG. 13, the shooting interval (key frame interval) between adjacent shooting positions in each of the three-dimensional directions is 1. In the key frame image selection process 44, for example, a plurality of key frame images P A , P B , P C , and P F whose distance from the user position Px is 1 or less are selected. The number of key frame images to be selected may be 5 or more, or 2 or 3 depending on circumstances.

3つのキーフレーム画像A,B,C,Fが選択された場合、それぞれの画像A、B,C,Fに乗じられるα値(α,α,α,α)は、ユーザ位置Pxから各画像A,B,CFの撮影位置P,P,P,Pまでの距離d,d,d,αの関数で表される。α,α,α,αは、例えば、以下の式で算出される。
When three key frame images A, B, C, and F are selected, the α values (α 1 , α 2 , α 3 , and α 4 ) multiplied by the images A, B, C, and F are the user positions. each image a from px, B, C, shooting position P a of the F, P B, P C, the distance to P F d 1, d 2, d 3, is represented by a function of the alpha 4. α 1 , α 2 , α 3 , and α 4 are calculated by the following equations, for example.

ユーザ位置Pxのための補間フレーム画像Xは、以下の式のように、複数のキーフレーム画像A,B,C,Fそれぞれにα値(α,α,α,α)を乗じることで得られる。
The interpolated frame image X for the user position Px multiplies each of the plurality of key frame images A, B, C, and F by α values (α 1 , α 2 , α 3 , α 4 ) as in the following equation. Can be obtained.

移動空間が3次元である場合においても、移動速度vに応じて、選択されるキーフレーム画像を異ならせることができる。   Even when the moving space is three-dimensional, the selected key frame image can be made different according to the moving speed v.

[3.サーバからの画像取得処理]
処理装置40は、ユーザの移動に応じて、補間フレーム画像Xを高速に生成する必要がある。このため、処理装置40は、ユーザ位置Pxが得られてから補間フレーム画像Xの生成に用いられるキーフレーム画像をサーバ20から取得するのではなく、現在のユーザ位置Px等に基づいて、将来必要となるキーフレーム画像を先取り的に取得しても良い。
[3. Image acquisition processing from server]
The processing device 40 needs to generate the interpolated frame image X at high speed according to the movement of the user. For this reason, the processing device 40 does not acquire the key frame image used for generating the interpolated frame image X from the server 20 after the user position Px is obtained, but needs it in the future based on the current user position Px and the like. The key frame image may be acquired in advance.

図13は、キーフレーム画像の先取り的な取得のための処理手順を示している。処理装置31は、動画生成処理の開始に伴って、ユーザの初期位置Pを取得すると(ステップS31)、その位置P周辺が撮影位置である複数のキーフレーム画像の取得を開始する(ステップS32)。 FIG. 13 shows a processing procedure for preemptive acquisition of a key frame image. Processor 31, along with the start of the moving image processing, acquires the initial position P 0 of the user (step S31), the position P 0 around starts acquiring multiple keyframes image is an imaging position (Step S32).

その後、処理装置40は、移動するユーザの移動速度、ユーザ位置Px、移動方向を取得すると(ステップS33)、移動速度、ユーザ位置Px、移動方向に基づいて、キーフレーム画像取得のための優先度を設定する(ステップS34)。処理装置40は、設定された優先度に従って順序で、現在のユーザ位置Pxの周辺が撮影位置である複数のキーフレーム画像をサーバ20から取得する。   Thereafter, when the processing device 40 acquires the moving speed, the user position Px, and the moving direction of the moving user (step S33), the priority for acquiring the key frame image is obtained based on the moving speed, the user position Px, and the moving direction. Is set (step S34). The processing device 40 acquires, from the server 20, a plurality of key frame images in which the periphery of the current user position Px is a shooting position in order according to the set priority.

図14は、優先度の設定例を示している。図14において、ユーザ位置Pxは、位置Pと位置Pの間にあり、位置PBの方が近い。ユーザの移動方向は、図の左から右に向かう方向である。この場合、処理装置40がサーバ20から最も有線して取得すべきキーフレーム画像は、ユーザ位置Pxに最も近い撮影位置Pのキーフレーム画像Bである。ユーザの移動速度が低速の場合、ユーザ移動方向にみてユーザ位置Pxから遠ざかるにつれて、優先度が低下する。ユーザ位置Pxに最も近い撮影位置Pからみてユーザ移動方向とは逆方向にある撮影位置Pのキーフレーム画像Aの優先度は相対的に低くなる。 FIG. 14 shows an example of setting priority. 14, the user position Px is between the position P C and the position P B, close better position PB. The moving direction of the user is a direction from the left to the right in the drawing. In this case, the key frame image that the processing device 40 should acquire most wired from the server 20 is the key frame image B at the shooting position P B closest to the user position Px. When the moving speed of the user is low, the priority decreases as the user moves away from the user position Px in the moving direction of the user. Priority keyframe image A photographing position P A is the user moving direction in the opposite direction as viewed from the closest photographing position P B to the user position Px is relatively low.

ユーザの移動速度が高速の場合は、ユーザ移動方向にみてユーザ位置Pxから遠ざかるにつれて、優先度が低下するが、撮影位置PBからみて、キーフレーム間隔が2の倍数である撮影位置P,Pのキーフレーム画像D,Fの優先度は、それ以外のキーフレーム画像C,E,Gよりも相対的に高くなる。 When the moving speed of the user is high, the priority decreases as the user moves away from the user position Px in the user moving direction, but the shooting positions P D and P whose key frame interval is a multiple of 2 as viewed from the shooting position PB. F keyframe image D, the priority of F is the other key frame image C, E, relatively higher than G.

優先度を決定する際には、移動速度及び移動方向の少なくともいずれか一方を省略してもよい。   When determining the priority, at least one of the moving speed and the moving direction may be omitted.

[4.動画像生成システムの応用例]
動画像生成システム10は、トレッドミルなどの運動器具とともに用いられるほか、場所案内などに用いることもできる。
[4. Application example of moving image generation system]
The moving image generation system 10 can be used with a sports equipment such as a treadmill, or for location guidance.

[5.付記]
本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
[5. Addendum]
The present invention is not limited to the above embodiment, and various modifications can be made.

10 動画像生成システム
20 サーバ(記憶部;第1記憶装置)
30 動画像生成装置
40 処理装置
41 プロセッサ
42 メモリ(記憶部;第2記憶装置)
43 ユーザ位置取得処理(取得部)
44 キーフレーム画像選択処理(選択部)
45 キーフレーム画像取得処理(画像取得部)
46 補間処理(補間処理部)
50 表示装置
52 速度検出器
54 方向検出器
X 補間フレーム画像
A,B キーフレーム画像
Px ユーザ位置
,P 撮影位置
10 moving image generation system 20 server (storage unit; first storage device)
30 moving image generating device 40 processing device 41 processor 42 memory (storage unit; second storage device)
43 User position acquisition processing (acquisition part)
44 Key frame image selection processing (selection unit)
45 Key frame image acquisition processing (image acquisition unit)
46 Interpolation processing (interpolation processing unit)
50 Display device 52 Speed detector 54 Direction detector X Interpolated frame image A, B Key frame image Px User position P A , P B shooting position

Claims (12)

複数の位置で撮影された複数のキーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する記憶部と、
仮想的に移動するユーザ位置を取得する取得部と、
前記記憶部に記憶された複数のキーフレーム画像の中から、前記撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択する選択部と、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの前記撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得る補間処理部と、
を備える動画像生成システム。
A storage unit that stores a plurality of key frame images photographed at a plurality of positions in association with a plurality of photographing positions of the key frame images;
An acquisition unit for acquiring a user position to move virtually;
A selection unit that selects a plurality of key frame images in which the shooting position is in the vicinity of the user position from a plurality of key frame images stored in the storage unit;
An interpolation frame image at the user position is obtained from at least one of the selected plurality of key frame images by interpolation processing based on the distance between the user position and each of the selected key frame images. An interpolation processing unit;
A moving image generation system comprising:
前記補間処理は、前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの前記撮影位置との距離に基づいて設定された透明度で、選択された複数の前記キーフレーム画像を重ね合わせる第1処理を含む
請求項1に記載の動画像生成システム。
The interpolation process is a first process of superimposing a plurality of selected key frame images with a transparency set based on a distance between the user position and each of the selected key frame images. The moving image generation system according to claim 1.
前記透明度は、前記ユーザ位置と前記撮影位置との距離が小さい前記キーフレーム画像ほど低く設定される
請求項2に記載の動画像生成システム。
The moving image generation system according to claim 2, wherein the transparency is set to be lower as the key frame image has a smaller distance between the user position and the shooting position.
前記補間処理は、選択された複数の前記キーフレーム画像の少なくとも一つに対して、前記ユーザ位置と前記撮影位置との距離に応じた画像強調化又は画像非強調化のための第2処理を更に含む
請求項2又は3に記載の動画像生成システム。
The interpolation processing includes, for at least one of the selected plurality of key frame images, second processing for image enhancement or image non-emphasis according to the distance between the user position and the shooting position. The moving image generation system according to claim 2 or 3, further comprising:
前記第2処理は、明るさ調整処理、コントラスト調整処理、ぼかし処理、エッジ強調処理、解像度調整、減色処理、及び増色処理からなる群から選択される一又は複数の処理を含む
請求項4に記載の動画像生成システム。
5. The second process includes one or more processes selected from the group consisting of brightness adjustment process, contrast adjustment process, blurring process, edge enhancement process, resolution adjustment, color reduction process, and color increase process. The moving image generation system described.
前記選択部は、選択される複数の前記キーフレーム画像の撮影位置間距離が、ユーザの仮想的な移動速度に応じて異なるように、複数の前記キーフレーム画像を選択する
請求項1〜5のいずれか1項に記載の動画像生成システム。
The said selection part selects the said some key frame image so that the distance between the imaging positions of the said some key frame image selected changes according to a user's virtual moving speed. The moving image generating system according to any one of the above.
前記ユーザ位置及び前記撮影位置は、一次元空間における位置、二次元空間における位置、又は三次元空間における位置である
請求項1〜6のいずれか1項に記載の動画像生成システム。
The moving image generation system according to claim 1, wherein the user position and the shooting position are a position in a one-dimensional space, a position in a two-dimensional space, or a position in a three-dimensional space.
前記記憶部は、
複数の前記キーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する第1記憶装置と、
前記第1記憶装置から複数の前記キーフレーム画像及びそれらの撮影位置を取得して、前記第1記憶装置における数よりも少ない数の複数の前記キーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する第2記憶装置と、
を含み、
前記選択部は、前記第2記憶装置に記憶された複数のキーフレーム画像の中から、前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択するよう構成され、
前記第2記憶装置は、前記ユーザ位置及びユーザの仮想的な移動方向に基づいて決定される優先度に従って、前記第1記憶装置に記憶された複数の前記キーフレーム画像及びそれらの撮影位置を取得する
請求項1〜7のいずれか1項に記載の動画像生成システム。
The storage unit
A first storage device that stores a plurality of the key frame images and shooting positions of the plurality of key frame images in association with each other;
A plurality of the key frame images and their shooting positions are acquired from the first storage device, and a plurality of the key frame images that are smaller than the number in the first storage device, and a plurality of the key frame images, respectively. A second storage device that stores the shooting position in association with each other;
Including
The selection unit is configured to select a plurality of the key frame images in the vicinity of the user position from a plurality of key frame images stored in the second storage device,
The second storage device acquires a plurality of the key frame images and their shooting positions stored in the first storage device according to a priority determined based on the user position and a virtual moving direction of the user. The moving image generating system according to any one of claims 1 to 7.
前記記憶部は、
複数の前記キーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する第1記憶装置と、
前記第1記憶装置から複数の前記キーフレーム画像及びそれらの撮影位置を取得して、前記第1記憶装置における数よりも少ない数の複数の前記キーフレーム画像と、複数の前記キーフレーム画像それぞれの撮影位置と、を対応付けて記憶する第2記憶装置と、
を含み、
前記選択部は、前記第2記憶装置に記憶された複数のキーフレーム画像の中から、前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択するよう構成され、
前記第2記憶装置は、前記ユーザ位置及びユーザの仮想的な移動速度に基づいて決定される優先度に従って、前記第1記憶装置に記憶された複数の前記キーフレーム画像及びそれらの撮影位置を取得する
請求項1〜8のいずれか1項に記載の動画像生成システム。
The storage unit
A first storage device that stores a plurality of the key frame images and shooting positions of the plurality of key frame images in association with each other;
A plurality of the key frame images and their shooting positions are acquired from the first storage device, and a plurality of the key frame images that are smaller than the number in the first storage device, and a plurality of the key frame images, respectively. A second storage device that stores the shooting position in association with each other;
Including
The selection unit is configured to select a plurality of the key frame images in the vicinity of the user position from a plurality of key frame images stored in the second storage device,
The second storage device acquires a plurality of the key frame images and their shooting positions stored in the first storage device according to a priority determined based on the user position and a virtual moving speed of the user. The moving image generating system according to any one of claims 1 to 8.
仮想的に移動するユーザ位置を取得する取得部と、
複数のキーフレーム画像の中から、撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択する選択部と、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得る補間処理部と、
を備える動画像生成装置。
An acquisition unit for acquiring a user position to move virtually;
A selection unit that selects a plurality of key frame images whose shooting positions are in the vicinity of the user position from among a plurality of key frame images;
Interpolation for obtaining an interpolated frame image at the user position from at least one of the selected plurality of key frame images by an interpolation process based on the distance between the user position and the shooting positions of the selected key frame images. A processing unit;
A moving image generating apparatus.
仮想的に移動するユーザ位置を取得し、
複数のキーフレーム画像の中から、撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択し、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得る
ことを含む動画像生成方法。
Get the user position to move virtually,
From a plurality of key frame images, select a plurality of the key frame images whose shooting position is in the vicinity of the user position,
Obtaining an interpolated frame image at the user position from at least one of the selected plurality of key frame images by an interpolation process based on a distance between the user position and a shooting position of each of the selected key frame images. A method for generating a moving image.
仮想的に移動するユーザ位置を取得する取得部と、
複数のキーフレーム画像の中から、撮影位置が前記ユーザ位置の近傍である複数の前記キーフレーム画像を選択する選択部と、
前記ユーザ位置と選択された複数の前記キーフレーム画像それぞれの撮影位置との距離に基づく補間処理によって、選択された複数の前記キーフレーム画像の少なくとも一つから前記ユーザ位置における補間フレーム画像を得る補間処理部と、
を備える動画像生成装置として、コンピュータを機能させるためのコンピュータプログラム。
An acquisition unit for acquiring a user position to move virtually;
A selection unit that selects a plurality of key frame images whose shooting positions are in the vicinity of the user position from among a plurality of key frame images;
Interpolation for obtaining an interpolated frame image at the user position from at least one of the selected plurality of key frame images by an interpolation process based on the distance between the user position and the shooting positions of the selected key frame images. A processing unit;
A computer program for causing a computer to function as a moving image generating apparatus.
JP2014188099A 2014-09-16 2014-09-16 Moving image generation system, moving image generation device, moving image generation method, and computer program Active JP6544719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014188099A JP6544719B2 (en) 2014-09-16 2014-09-16 Moving image generation system, moving image generation device, moving image generation method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014188099A JP6544719B2 (en) 2014-09-16 2014-09-16 Moving image generation system, moving image generation device, moving image generation method, and computer program

Publications (2)

Publication Number Publication Date
JP2016062184A true JP2016062184A (en) 2016-04-25
JP6544719B2 JP6544719B2 (en) 2019-07-17

Family

ID=55795987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014188099A Active JP6544719B2 (en) 2014-09-16 2014-09-16 Moving image generation system, moving image generation device, moving image generation method, and computer program

Country Status (1)

Country Link
JP (1) JP6544719B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111348A1 (en) * 2017-12-06 2019-06-13 株式会社典雅 Video processing device, video processing method, computer program, and video processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348165A (en) * 1999-06-04 2000-12-15 Mitsubishi Electric Corp Scene display device
JP2003153253A (en) * 2001-11-09 2003-05-23 Sony Corp Information processing system and information processing method, program and recording medium, moving object, and information processing apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348165A (en) * 1999-06-04 2000-12-15 Mitsubishi Electric Corp Scene display device
JP2003153253A (en) * 2001-11-09 2003-05-23 Sony Corp Information processing system and information processing method, program and recording medium, moving object, and information processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111348A1 (en) * 2017-12-06 2019-06-13 株式会社典雅 Video processing device, video processing method, computer program, and video processing system

Also Published As

Publication number Publication date
JP6544719B2 (en) 2019-07-17

Similar Documents

Publication Publication Date Title
CN108292489B (en) Information processing apparatus and image generating method
CN102959941B (en) Information processing system, information processing device and information processing method
JP2014238731A (en) Image processor, image processing system, and image processing method
CN107850934B (en) Virtual/Augmented Reality System with Dynamic Area Resolution
CN106997618A (en) A kind of method that virtual reality is merged with real scene
JP7725686B2 (en) Image processing device, image processing method, and program
JP6768933B2 (en) Information processing equipment, information processing system, and image processing method
JP2018500690A (en) Method and system for generating magnified 3D images
KR20180099703A (en) Configuration for rendering virtual reality with adaptive focal plane
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
CN107016730A (en) The device that a kind of virtual reality is merged with real scene
JP2019102828A (en) Image processing system, image processing method, and image processing program
CN106981100A (en) The device that a kind of virtual reality is merged with real scene
JP2020071394A (en) Information processing device, information processing method, and program
TWI589150B (en) Three-dimensional auto-focusing method and the system thereof
JP6558365B2 (en) Image processing apparatus, image processing method, and program
WO2023277020A1 (en) Image display system and image display method
JP6544719B2 (en) Moving image generation system, moving image generation device, moving image generation method, and computer program
KR101817952B1 (en) See-through type head mounted display apparatus and method of controlling display depth thereof
US20130106845A1 (en) Stereoscopic image display apparatus
KR102287939B1 (en) Apparatus and method for rendering 3dimensional image using video
KR101212223B1 (en) Device taking a picture and method to generating the image with depth information
US11119313B1 (en) Imaging systems and methods for expanding field of view of captured images
JP6632134B2 (en) Image processing apparatus, image processing method, and computer program
JP2020160226A (en) Image processing system and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170807

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190409

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R150 Certificate of patent or registration of utility model

Ref document number: 6544719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250