[go: up one dir, main page]

JP2019023770A - Video generation apparatus, video generation method, and video generation program - Google Patents

Video generation apparatus, video generation method, and video generation program Download PDF

Info

Publication number
JP2019023770A
JP2019023770A JP2015235637A JP2015235637A JP2019023770A JP 2019023770 A JP2019023770 A JP 2019023770A JP 2015235637 A JP2015235637 A JP 2015235637A JP 2015235637 A JP2015235637 A JP 2015235637A JP 2019023770 A JP2019023770 A JP 2019023770A
Authority
JP
Japan
Prior art keywords
data
avatar
user
video
video generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015235637A
Other languages
Japanese (ja)
Inventor
加藤 勝也
Katsuya Kato
勝也 加藤
難波 秀夫
Hideo Nanba
秀夫 難波
泰弘 浜口
Yasuhiro Hamaguchi
泰弘 浜口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015235637A priority Critical patent/JP2019023770A/en
Priority to PCT/JP2016/076746 priority patent/WO2017094313A1/en
Publication of JP2019023770A publication Critical patent/JP2019023770A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】映像生成装置は、視覚的な情報でユーザのランニングをガイドする。【解決手段】3D擬似空間映像を生成する映像生成装置であって、前記映像生成装置を制御する制御部と、センサデータを取得するセンサ部と、前記センサデータに基づいて、前記映像生成装置を装着しているユーザの測位データを算出する測位部と、3D擬似空間におけるカメラ座標、カメラ向き、およびカメラ画角の少なくとも1つを含んで構成されるカメラデータを生成するカメラデータ生成部と、前記3D擬似空間におけるアバター座標とアバターモーションからなるアバターデータを生成し、ペースデータに基づいて前記アバター座標を生成するアバターデータ生成部と、前記カメラデータと前記アバターデータに基づいて、前記3D擬似空間映像を生成する3D映像生成部と、前記3D擬似空間映像を表示する映像表示部と、を備える。【選択図】図2An image generation apparatus guides a user's running with visual information. An image generation device for generating a 3D pseudo-space image, the control unit for controlling the image generation device, a sensor unit for acquiring sensor data, and the image generation device based on the sensor data. A positioning unit that calculates positioning data of a user wearing the camera, a camera data generation unit that generates camera data including at least one of camera coordinates, camera orientation, and camera angle of view in 3D pseudo space; An avatar data generation unit that generates avatar data including avatar coordinates and avatar motion in the 3D pseudo space, generates the avatar coordinates based on pace data, and the 3D pseudo space based on the camera data and the avatar data. A 3D video generation unit that generates video, and a video display unit that displays the 3D pseudo-space video. Obtain. [Selection] Figure 2

Description

本発明は、映像生成装置、映像生成方法及び映像生成プログラムに関する。   The present invention relates to a video generation device, a video generation method, and a video generation program.

近年、センサ技術の進歩に伴い、スポーツのトレーニングにセンサ技術を用いることが検討されている。トレーニングプログラム中に再生する楽曲を選択する方法が特許文献1に記載されている。   In recent years, with the advancement of sensor technology, the use of sensor technology for sports training has been studied. Patent Document 1 describes a method for selecting music to be played back during a training program.

特開2015−91350JP2015-91350A

しかしながら、特許文献1に記載の方法では、設定タイムで設定距離をガイドする場合に、ユーザが正確な距離を視覚的に把握できないという問題がある。   However, the method described in Patent Document 1 has a problem that the user cannot visually grasp the accurate distance when the set distance is guided by the set time.

本発明はこのような事情を鑑みてなされたものであり、その目的は、ランニングをするユーザが、ある設定タイムである設定距離を走ることをガイドする映像生成装置、映像生成方法、及び映像生成プログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a video generation apparatus, a video generation method, and video generation that guide a running user to run a set distance that is a set time. To provide a program.

上述した課題を解決するために本発明に係る映像生成装置、映像生成方法、及び映像生成プログラムの構成は、次の通りである。   In order to solve the above-described problems, the configuration of a video generation device, a video generation method, and a video generation program according to the present invention is as follows.

本発明の映像生成装置は、3D擬似空間映像を生成する映像生成装置であって、前記映像生成装置を制御する制御部と、センサデータを取得するセンサ部と、前記センサデータに基づいて、前記映像生成装置を装着しているユーザの測位データを算出する測位部と、3D擬似空間におけるカメラ座標、カメラ向き、およびカメラ画角の少なくとも1つを含んで構成されるカメラデータを生成するカメラデータ生成部と、前記3D擬似空間におけるアバター座標とアバターモーションからなるアバターデータを生成し、ペースデータに基づいて前記アバター座標を生成するアバターデータ生成部と、前記カメラデータと前記アバターデータに基づいて、前記3D擬似空間映像を生成する3D映像生成部と、前記3D擬似空間映像を表示する映像表示部と、を備える。   The video generation device of the present invention is a video generation device that generates a 3D pseudo-space video, a control unit that controls the video generation device, a sensor unit that acquires sensor data, and the sensor data based on the sensor data, Camera data for generating camera data including a positioning unit for calculating positioning data of a user wearing the video generation device and at least one of camera coordinates, camera orientation, and camera angle of view in 3D pseudo space Based on the generating unit, the avatar data generating unit that generates the avatar data including the avatar coordinates and the avatar motion in the 3D pseudo space, and generating the avatar coordinates based on the pace data, based on the camera data and the avatar data, 3D video generation unit for generating the 3D pseudo-space video, and video for displaying the 3D pseudo-space video Includes a radical 113, the.

また、本発明の映像生成装置において、前記ペースデータは、時間に対するアバターの位置、速度、または加速度の少なくとも1つを含んで構成される。   In the video generation device of the present invention, the pace data includes at least one of the position, speed, or acceleration of the avatar with respect to time.

また、本発明の映像生成装置において、前記カメラデータは、前記測位データと前記ユーザモーションデータに基づいて設定される。   In the video generation device of the present invention, the camera data is set based on the positioning data and the user motion data.

また、本発明の映像生成装置において、前記センサデータに基づいて、前記ユーザのユーザモーションデータを算出するモーション検出部をさらに含む。   The video generation apparatus of the present invention further includes a motion detection unit that calculates user motion data of the user based on the sensor data.

また、本発明の映像生成装置において、前記測位データは、前記ユーザの速度または前記ユーザの速さである。   In the video generation device of the present invention, the positioning data is the speed of the user or the speed of the user.

また、本発明の映像生成装置において、前記モーションデータは前記ユーザの接地を含み、前記測位部は、前記ユーザの接地が検出された場合に前記ユーザの速度または前記ユーザの速さを変化させる。   In the video generation device of the present invention, the motion data includes the user's ground contact, and the positioning unit changes the user speed or the user speed when the user ground contact is detected.

また、本発明の映像生成装置において、前記センサデータは前記ユーザが登っている否かの情報を含み、前記アバターデータ生成部は、前記ユーザが登っている場合に、前記アバターの速度または加速度を減少させる。   In the video generation device of the present invention, the sensor data includes information indicating whether or not the user is climbing, and the avatar data generation unit determines the speed or acceleration of the avatar when the user is climbing. Decrease.

また、本発明の映像生成装置において、前記センサデータは前記ユーザが下っている否かの情報を含み、前記アバターデータ生成部は、前記ユーザが下っている場合に、前記アバターの速度または加速度を増加させる。   In the video generation device of the present invention, the sensor data includes information indicating whether or not the user is down, and the avatar data generation unit calculates the speed or acceleration of the avatar when the user is down. increase.

また、本発明の映像生成装置において、前記センサデータは前記ユーザのバイタルデータを含み、前記アバターデータ生成部は、さらに前記バイタルデータに基づいて、前記アバター座標を生成する。   In the video generation device of the present invention, the sensor data includes vital data of the user, and the avatar data generation unit further generates the avatar coordinates based on the vital data.

また、本発明の映像生成装置において、前記制御部は、トラックに最適なトラックモードと、ロードに最適なロードモードを設定する機能を有する。   In the video generation apparatus of the present invention, the control unit has a function of setting a track mode optimal for a track and a load mode optimal for loading.

また、本発明の映像生成装置において、前記制御部が設定するモードが、前記トラックモードの場合と、前記ロードモードとの場合で、前記アバターデータ生成部が生成する前記アバターデータが異なる。   In the video generation device of the present invention, the avatar data generated by the avatar data generation unit differs depending on whether the mode set by the control unit is the track mode or the load mode.

また、本発明の映像生成装置において、前記測位部は、地図情報とのマッチングを用いて、前記測位データを生成する。   In the video generation device of the present invention, the positioning unit generates the positioning data using matching with map information.

また、本発明の映像生成装置において、前記制御部が、前記トラックモードを設定する場合、前記測位部は、前記ユーザの周回情報を検出し、前記カメラデータ生成部は、前記周回情報に基づいて、前記カメラ位置を補正する。   In the video generation device of the present invention, when the control unit sets the track mode, the positioning unit detects the circulation information of the user, and the camera data generation unit is based on the rotation information. The camera position is corrected.

また、本発明の映像生成装置において、前記制御部は、前記ロードモードのときに、さらにランニングモードとサイクリングモードを設定する機能を有し、前記アバターデータ生成部が生成する前記アバターデータが、前記ランニングモードの場合と、前記サイクリングモードの場合と、で異なる。   In the video generation device of the present invention, the control unit further has a function of setting a running mode and a cycling mode in the road mode, and the avatar data generated by the avatar data generation unit is The running mode is different from the cycling mode.

本発明の映像生成方法は、3D擬似空間映像を生成する映像生成方法であって、前記映像生成装置を制御する制御過程と、センサデータを取得するセンサ過程と、前記センサデータに基づいて、前記映像生成装置を装着しているユーザの測位データを算出する測位過程と、3D擬似空間におけるカメラ座標、カメラ向き、およびカメラ画角の少なくとも1つを含んで構成されるカメラデータを生成するカメラデータ生成過程と、前記3D擬似空間におけるアバター座標とアバターモーションからなるアバターデータを生成し、ペースデータに基づいて前記アバター座標を生成するアバターデータ生成過程と、前記カメラデータと前記アバターデータに基づいて、前記3D擬似空間映像を生成する3D映像生成過程と、前記3D擬似空間映像を表示する映像表示過程と、を備える。   The video generation method of the present invention is a video generation method for generating a 3D pseudo-space video, wherein a control process for controlling the video generation apparatus, a sensor process for acquiring sensor data, and the sensor data, Camera data for generating camera data including at least one of a positioning process for calculating positioning data of a user wearing the video generation device and camera coordinates, camera orientation, and camera angle of view in 3D pseudo space Based on the generation process, the avatar data generation process for generating the avatar data including the avatar coordinates and the avatar motion in the 3D pseudo space, and generating the avatar coordinates based on the pace data, the camera data and the avatar data, A 3D image generation process for generating the 3D pseudo-space image; Comprising a Shimesuru image display process, the.

本発明の映像生成プログラムは、上述した映像生成方法をコンピュータに実行させる。   The video generation program of the present invention causes a computer to execute the above-described video generation method.

本発明によれば、映像生成装置は、視覚的な情報でユーザのランニングをガイドすることができる。   According to the present invention, the video generation apparatus can guide the user's running with visual information.

本実施形態に係る映像生成装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the video generation apparatus which concerns on this embodiment. 本実施形態における機能の一例を示す図である。It is a figure which shows an example of the function in this embodiment. 本実施形態におけるペースデータの一例を示す図である。It is a figure which shows an example of the pace data in this embodiment. 本実施形態における機能の一例を示す図である。It is a figure which shows an example of the function in this embodiment.

(第1の実施形態)
図1は、本実施形態に係る映像生成装置10の例を示す図である。図1に示すように、本実施形態における映像生成装置10は、操作部(操作ステップ)101、制御部(制御ステップ)102、センサ部(センサステップ)103、測位部(測位ステップ)104、モーション検出部(モーション検出ステップ)105、カメラデータ生成部(カメラデータ生成ステップ)106、アバターデータ生成部(アバターデータ生成ステップ)107、3D映像生成部(3D映像生成ステップ)108、映像表示部(映像表示ステップ)109を含んで構成される。例えば、映像生成装置10はメガネ型端末で実現することができる。なお、映像生成装置10が映像表示部109を含まなくてもよい。例えば、映像生成装置10は、3D映像生成部108からの信号を出力するだけでもよい。その場合、例えば映像表示部109がメガネ型端末となることができる。
(First embodiment)
FIG. 1 is a diagram illustrating an example of a video generation apparatus 10 according to the present embodiment. As shown in FIG. 1, the video generation apparatus 10 in this embodiment includes an operation unit (operation step) 101, a control unit (control step) 102, a sensor unit (sensor step) 103, a positioning unit (positioning step) 104, motion Detection unit (motion detection step) 105, camera data generation unit (camera data generation step) 106, avatar data generation unit (avatar data generation step) 107, 3D video generation unit (3D video generation step) 108, video display unit (video) Display step) 109. For example, the video generation device 10 can be realized by a glasses-type terminal. Note that the video generation device 10 may not include the video display unit 109. For example, the video generation device 10 may simply output a signal from the 3D video generation unit 108. In that case, for example, the video display unit 109 can be a glasses-type terminal.

操作部101は、ユーザの操作により発生したデータを制御部102に出力する。   The operation unit 101 outputs data generated by a user operation to the control unit 102.

制御部102は、カメラデータ生成部106、アバターデータ生成部107、3D映像生成部108を制御する。   The control unit 102 controls the camera data generation unit 106, the avatar data generation unit 107, and the 3D video generation unit 108.

センサ部103は、位置センサ、速度センサ、加速度センサ、ジャイロセンサ、地磁気センサ、気圧センサ、ストライドセンサ、バイタルセンサを含んで構成される。位置センサは、GPS(Global Positioning System)センサ、GNSS(Global Navigation Satellite System)センサ、IMES(Indoor Messaging System)センサ、Bluetooth(登録商標)センサ、UWB(Ultra Wide Band)センサ、無線LANセンサ、音波
センサ、可視光センサ、赤外線センサ、回転検出センサ等で実現することができる。これらを用いて速度センサを実現することもできる。例えば、GPS衛星からの電波のドップラー周波数を検出することで、センサ部103は、映像生成装置10の速度(Velocity)または速さ(Speed)を検出することができる。また、センサ部103は、ある経過時間
における位置変動から速度を検出することができる。また、速度センサをストライドセンサで実現することができる。バイタルセンサは、例えば赤外線センサなどを用い、映像生成装置10を装着しているユーザのバイタルデータを測定する。バイタルデータは、例えば、脈拍、心拍、血圧、血糖値等である。センサ部103は、センサから得られるセンサデータを測位部104とモーション検知部105に出力する。
The sensor unit 103 includes a position sensor, a speed sensor, an acceleration sensor, a gyro sensor, a geomagnetic sensor, an atmospheric pressure sensor, a stride sensor, and a vital sensor. Position sensors include GPS (Global Positioning System) sensors, GNSS (Global Navigation Satellite System) sensors, IMES (Indoor Messaging System) sensors, Bluetooth (registered trademark) sensors, UWB (Ultra Wide Band) sensors, wireless LAN sensors, and acoustic wave sensors. It can be realized by a visible light sensor, an infrared sensor, a rotation detection sensor, or the like. A speed sensor can also be realized using these. For example, by detecting the Doppler frequency of the radio wave from the GPS satellite, the sensor unit 103 can detect the speed (Velocity) or the speed (Speed) of the video generation device 10. In addition, the sensor unit 103 can detect the speed from the position variation at a certain elapsed time. Also, the speed sensor can be realized by a stride sensor. The vital sensor uses, for example, an infrared sensor and measures vital data of the user wearing the video generation device 10. The vital data is, for example, a pulse, a heartbeat, a blood pressure, a blood sugar level, and the like. The sensor unit 103 outputs sensor data obtained from the sensor to the positioning unit 104 and the motion detection unit 105.

測位部104は、センサ部から得られるセンサデータを用いて、映像生成装置10の移動距離、移動経路、速度、速さ、向き、現在位置等の測位データを計算する。例えば、測位部104が計算する移動距離は、制御部102からトレーニング開始を通知されてからの累積移動距離とすることができる。例えば、測位部104は、映像生成装置10の速さを、映像生成装置10を身に着けているユーザの足の接地を検出した際にだけ変更するようにすることができる。測位部104は、計算した測位データをカメラデータ生成部106とアバターデータ生成部107に出力する。   The positioning unit 104 uses the sensor data obtained from the sensor unit to calculate positioning data such as the moving distance, moving path, speed, speed, direction, and current position of the video generation device 10. For example, the movement distance calculated by the positioning unit 104 can be the cumulative movement distance after the start of training is notified from the control unit 102. For example, the positioning unit 104 can change the speed of the video generation device 10 only when the contact of the foot of the user wearing the video generation device 10 is detected. The positioning unit 104 outputs the calculated positioning data to the camera data generation unit 106 and the avatar data generation unit 107.

モーション検出部105は、センサ部103から得られるセンサデータに基づいて、映像生成装置10を身に着けているユーザのモーションを検出し、それをユーザモーション
データとする。このユーザモーションデータの一例は、映像生成装置10の使用者の頭の向き、映像生成装置10の使用者がランニングの開始直前か否か、映像生成装置10の使用者がランニングの接地動作か否か、などでもよい。モーション検出部105は、生成したユーザモーションデータをカメラデータ生成部106とアバターデータ生成部107に出力する。また、生成したユーザモーションデータを基にさらに生成したデータを、ユーザの操作により発生したデータとして操作部101が生成するデータの代わりとしても良い。
The motion detection unit 105 detects the motion of the user wearing the video generation device 10 based on the sensor data obtained from the sensor unit 103, and uses it as user motion data. An example of this user motion data is the orientation of the head of the user of the video generation device 10, whether the user of the video generation device 10 is just before the start of running, and whether the user of the video generation device 10 is a grounding operation for running. Or may be. The motion detection unit 105 outputs the generated user motion data to the camera data generation unit 106 and the avatar data generation unit 107. Further, data further generated based on the generated user motion data may be used in place of data generated by the operation unit 101 as data generated by a user operation.

カメラデータ生成部106は、3D映像を生成するための擬似空間におけるカメラ座標とカメラ向き、カメラ画角等のカメラデータを、測位部104から得られる測位データとモーション検出部105から得られるユーザモーションデータに基づいて決定する。カメラデータ生成部106は、トレーニングを開始していない時は、カメラ位置を初期位置、たとえばユーザから見た前方5m先にアバターが配置されたときにアバターの全体像が表示装置に映る位置、向き、画角として設定することができる。カメラデータ生成部106は、映像生成装置10を身に着けているユーザの、トレーニングを開始してからの移動距離だけ、初期位置から移動させることができる。例えば、擬似空間において、縦方向にy軸、平面方向にx軸とz軸を直交座標として取った場合に、z軸の座標を増加させることでカメラ位置を移動させることができる。あるいは、移動経路を考慮してx座標とz座標に反映させても良い。また、ユーザ、カメラ位置、アバターの位置の座標管理は絶対座標系でも良く、相対座標系でも良い。あるいは、高さも考慮してy座標に反映させても良い。また、カメラデータ生成部106は、測位部104から得られるユーザの向きやモーション検出部105から得られるユーザの頭の向きに基づいて、擬似空間におけるカメラ向きを決定することができる。これらの動作には、いわゆるマッチムーブに使用する各種技術を使用する事ができる。なお、ユーザの頭のピッチング(pitching、pitch)だけをカ
メラ向きに反映させても良い。ここで、ピッチングとは、カメラ座標の移動をz軸のみに反映させる場合、x軸を中心とした回転である。カメラデータ生成部106は、カメラデータを3D映像生成部108に出力する。
The camera data generation unit 106 obtains camera data such as camera coordinates, camera orientation, and camera angle of view in a pseudo space for generating 3D video, positioning data obtained from the positioning unit 104, and user motion obtained from the motion detection unit 105. Determine based on the data. When the training is not started, the camera data generation unit 106 sets the camera position to the initial position, for example, the position and direction in which the entire image of the avatar appears on the display device when the avatar is placed 5 meters ahead of the user. , Can be set as the angle of view. The camera data generation unit 106 can move the user wearing the video generation apparatus 10 from the initial position by a movement distance after starting training. For example, in the pseudo space, when the y-axis is taken as the vertical direction and the x-axis and the z-axis are taken as the orthogonal coordinates in the plane direction, the camera position can be moved by increasing the z-axis coordinates. Alternatively, it may be reflected in the x coordinate and the z coordinate in consideration of the movement route. Further, the coordinate management of the user, camera position, and avatar position may be an absolute coordinate system or a relative coordinate system. Alternatively, the height may be taken into consideration and reflected in the y coordinate. Also, the camera data generation unit 106 can determine the camera direction in the pseudo space based on the user orientation obtained from the positioning unit 104 and the user head orientation obtained from the motion detection unit 105. Various techniques used for so-called match move can be used for these operations. Note that only the pitching (pitch) of the user's head may be reflected on the camera. Here, pitching is rotation about the x axis when the movement of the camera coordinates is reflected only on the z axis. The camera data generation unit 106 outputs the camera data to the 3D video generation unit 108.

アバターデータ生成部107は、トレーニングをガイドするために映像表示部109で表示させるアバターの位置、向き、速度、速さ、モーション等を生成する。例えば、制御部102がアバターデータ生成部107にアバターの動くペースデータを出力することができる。例えば、アバターのz座標を増加することでトレーニングガイドを実現する場合、設定タイムに応じてz座標が決まるようにすれば良い。また、アバターデータ生成部107は、センサ部103で得られるバイタルデータを用いて、アバターの動きをコントロールしても良い。アバターデータ生成部107は、ユーザの速さに基づいてアバターのモーションを変更してもよい。アバターデータ生成部107は、アバターの座標とモーションデータを含んで構成されるアバターデータを3D映像生成部108に出力する。   The avatar data generation unit 107 generates an avatar position, orientation, speed, speed, motion, and the like to be displayed on the video display unit 109 in order to guide training. For example, the control unit 102 can output the avatar movement pace data to the avatar data generation unit 107. For example, when a training guide is realized by increasing the avatar's z-coordinate, the z-coordinate may be determined according to the set time. In addition, the avatar data generation unit 107 may control the movement of the avatar using vital data obtained by the sensor unit 103. The avatar data generation unit 107 may change the motion of the avatar based on the speed of the user. The avatar data generation unit 107 outputs avatar data including the avatar coordinates and motion data to the 3D video generation unit 108.

3D映像生成部108は、カメラデータ生成部106から入力されるカメラ位置とカメラ向き、アバターデータ生成部107から入力されるアバターの位置、モーションデータに基づいて3D映像を生成する。具体的に、3D映像生成部108は、ボーンに対するモーションデータと、ボーンとポリゴン、テクスチャデータと物理演算用の剛体データ等から構成されるモデルデータを設定することができる。3D映像生成部108がモデルデータを変更することで、映像表示部109におけるアバターの表示を変更することができる。具体的に、3Dの擬似空間でのアバターがカメラに投影されたときに、カメラに映る1つの映像を生成する。なお、映像表示部109がステレオ表示対応の場合は、カメラデータ生成部106から入力されるカメラ位置から2台のカメラを設定し、左眼用と右眼用の視差のある2つの映像を生成しても良い。3D映像生成部108は、生成した1つ又は2つの映像を映像表示部109に出力する。   The 3D video generation unit 108 generates a 3D video based on the camera position and camera direction input from the camera data generation unit 106, the avatar position input from the avatar data generation unit 107, and motion data. Specifically, the 3D video generation unit 108 can set model data including motion data for bones, bones and polygons, texture data, rigid body data for physical operations, and the like. The display of the avatar on the video display unit 109 can be changed by the 3D video generation unit 108 changing the model data. Specifically, when an avatar in a 3D pseudo space is projected onto the camera, one image that is reflected on the camera is generated. When the video display unit 109 supports stereo display, two cameras are set from the camera position input from the camera data generation unit 106, and two images with parallax for the left eye and the right eye are generated. You may do it. The 3D video generation unit 108 outputs the generated one or two videos to the video display unit 109.

映像表示部109は、3D映像生成部108から入力される映像を表示する。例えば、映像表示部109は、メガネ型端末に実装される。このようにすることで、メガネ型端末は、アバターのAR(Augmented Reality;拡張現実)表示を実現することができる。メ
ガネ型端末が両眼にディスプレイを持ち、3D映像生成部108から2つの映像が入力される場合、左眼と右眼のそれぞれのディスプレイで表示することができる。
The video display unit 109 displays the video input from the 3D video generation unit 108. For example, the video display unit 109 is mounted on a glasses-type terminal. By doing in this way, the glasses-type terminal can realize an AR (Augmented Reality) display of the avatar. When the glasses-type terminal has displays for both eyes and two images are input from the 3D image generation unit 108, the images can be displayed on the left eye and right eye displays.

図2は、映像生成装置10が提供する機能の一例である。図2は、経路201をユーザ202が走った状態を表す。ユーザ202は、映像生成装置10の一例として、メガネ型端末203を装着している。メガネ型端末203のディスプレイ(映像表示部109)に表示する映像は、3Dの擬似空間21に基づいて生成される。擬似空間21において、x軸が横、y軸が縦、z軸が前を表す。カメラ211は、擬似空間におけるメガネ型端末203の位置と向きを表す。アバター212は、設定されたペースで擬似空間内をz軸方向に移動する。座標213はカメラ211のz座標である。例えば、座標213の値は、測位部104で得られる経路201の距離とすることができる。例えば、経路201が複数の離散的な測位点で構成される場合、測位点間の距離の合計を座標213の値とすることができる。座標214は、アバター212のz座標であり、設定されたペースで変化する。カメラ211で得られる映像をメガネ型端末203のディスプレイに表示することで、ユーザ202は実空間でアバター212を追いかけているようなランニングを行うことができる。なお、アバター212は、例えば、初期のz座標を3mとすることができる。アバター212がユーザ202の少し前を走ってペースメーキングをすることになり、ユーザ202がアバター212と重なることを防ぐことができる。あるいは、初期のx座標を1mのように、少し横に設定することで、ユーザ202の前方向の視界を開かせることができる。   FIG. 2 is an example of functions provided by the video generation device 10. FIG. 2 shows a state where the user 202 has run on the route 201. The user 202 is wearing a glasses-type terminal 203 as an example of the video generation device 10. The video to be displayed on the display (video display unit 109) of the glasses-type terminal 203 is generated based on the 3D pseudo space 21. In the pseudo space 21, the x axis is horizontal, the y axis is vertical, and the z axis is front. The camera 211 represents the position and orientation of the glasses-type terminal 203 in the pseudo space. The avatar 212 moves in the z-axis direction in the pseudo space at the set pace. A coordinate 213 is the z coordinate of the camera 211. For example, the value of the coordinate 213 can be the distance of the route 201 obtained by the positioning unit 104. For example, when the path 201 is composed of a plurality of discrete positioning points, the total distance between the positioning points can be set as the value of the coordinate 213. The coordinate 214 is the z coordinate of the avatar 212 and changes at a set pace. By displaying the video obtained by the camera 211 on the display of the glasses-type terminal 203, the user 202 can perform running such as chasing the avatar 212 in real space. In addition, the avatar 212 can set the initial z coordinate to 3 m, for example. The avatar 212 runs in front of the user 202 and performs pacemaking, and the user 202 can be prevented from overlapping the avatar 212. Alternatively, the forward view of the user 202 can be opened by setting the initial x-coordinate slightly to 1 m, such as 1 m.

図3は、アバター212を100m走のペースメーカーとして動作させる場合のペースデータの一例である。速さ表31は、ある時刻のときにアバター212が動く速さを表す。例えば、トレーニング開始時刻から0.5秒後までは、アバター212は2.2 m/sで動く。距離表32は、ある時刻のときのアバター212の移動距離を表す。例えば、トレーニング開始時刻から2.5秒後には、アバター212は9.55m移動している。ペースデータは、速さ表31のように速さを用いても良いし、距離表32のように移動距離を用いても良い。なお、この例では、アバター212は100mを11秒98のタイムで走るペースメーカーとして動作する。なお、図3では速さや距離に変動を0.5秒毎にしているが、これに限るものではなく、もっと細かくても良い。また、時刻は絶対時刻でも良く、また、ある時刻を基準とした相対時刻でも良い。   FIG. 3 is an example of pace data when the avatar 212 is operated as a pacemaker of 100 m running. The speed table 31 represents the speed at which the avatar 212 moves at a certain time. For example, the avatar 212 moves at 2.2 m / s until 0.5 seconds after the training start time. The distance table 32 represents the moving distance of the avatar 212 at a certain time. For example, after 2.5 seconds from the training start time, the avatar 212 has moved by 9.55 m. The pace data may use speed as shown in the speed table 31 or may use movement distance as shown in the distance table 32. In this example, the avatar 212 operates as a pacemaker that runs 100 m at a time of 11 seconds 98. In FIG. 3, the speed and distance are changed every 0.5 seconds, but the present invention is not limited to this, and it may be finer. The time may be an absolute time or a relative time based on a certain time.

ペースデータは時刻と速度によって決めるだけではなく、ユーザの速度に対するアバターの加速余力(加速度)で定義しても良い。一例として、ユーザの速度が目標の速度以下の時にアバターの加速度が正の値、ユーザの速度が目標の速度に達した時にアバターの加速度が0になるように、ユーザの速度とアバターの加速度の関係を曲線的に定義する事で、アバターを目標速度で走らせることが可能となる。ユーザの速度がある値より遅い場合はアバターの加速度が0になる目標速度を落とし、また、加速度を負の値にしてユーザの走行ペースに合わせたり、坂道等でユーザに負荷がかかる場合は、加速度が0になる速度を低くすると共に加速度曲線の傾きを小さく設定する事でアバターの走行ペースを遅くするように設定しても良い。また、ユーザとアバターの距離が所定の値以上離れたときは、アバターの速度をほぼ0とし、アバターが一時的に待つような方法を使用しても良い。この場合、所定の値よりアバターが近付いたらアバターが自動的に再スタートしても良い。   The pace data is not only determined by the time and speed, but may be defined by the acceleration avatar's acceleration (acceleration) with respect to the user's speed. For example, when the user's speed is equal to or lower than the target speed, the avatar's acceleration is a positive value, and when the user's speed reaches the target speed, the avatar's acceleration is zero. By defining the relationship as a curve, the avatar can run at the target speed. If the user's speed is slower than a certain value, the target speed at which the acceleration of the avatar is reduced to 0, the acceleration is set to a negative value to match the user's running pace, or if the user is loaded on a slope, The speed at which the acceleration becomes 0 may be lowered and the slope of the acceleration curve may be set to be small so as to slow down the avatar's running pace. Further, when the distance between the user and the avatar is a predetermined value or more, a method in which the avatar speed is set to approximately 0 and the avatar waits temporarily may be used. In this case, the avatar may be automatically restarted when the avatar approaches the predetermined value.

図2に戻って、別のサービス例を説明する。アバター212のペースを、図3のように事前に計画されたものではなく、リアルタイムに変化させるようにしても良い。例えば、ユーザのバイタルデータに基づいて、アバター212のペースを変更することができる。
例えば、ユーザの心拍数を一定に保ちながらランニングを行うためのペースを作り出すことができる。心拍数が目標心拍数を超えた場合にアバター212の速さを下げ、心拍数が目標心拍数を下回っている場合にはアバター212の速さを上げることができる。また、心拍数が目標心拍数を超えた場合に、アバター212のモーションをユーザ202の運動負荷が下がるものにすることができる。心拍数が目標心拍数を下回る場合、アバター212のモーションをユーザ202の運動負荷が上がるものにすることができる。なお、心拍数の代わりに、脈拍数が用いられても良い。バイタルデータは、血圧や血糖値でも良い。なお、ユーザ202のバイタルデータが、運動を中止すべき値になったとき、アバター212がランニングの中止を促す動作をするようにしてもよい。
Returning to FIG. 2, another service example will be described. The pace of the avatar 212 may not be planned in advance as shown in FIG. 3, but may be changed in real time. For example, the pace of the avatar 212 can be changed based on the user's vital data.
For example, it is possible to create a pace for running while keeping the user's heart rate constant. When the heart rate exceeds the target heart rate, the speed of the avatar 212 can be decreased, and when the heart rate is lower than the target heart rate, the speed of the avatar 212 can be increased. Further, when the heart rate exceeds the target heart rate, the motion of the avatar 212 can be reduced so that the exercise load on the user 202 is reduced. When the heart rate falls below the target heart rate, the motion of the avatar 212 can increase the exercise load on the user 202. A pulse rate may be used instead of the heart rate. The vital data may be blood pressure or blood glucose level. Note that when the vital data of the user 202 reaches a value at which exercise should be stopped, the avatar 212 may perform an operation for prompting the user to stop running.

図4は、映像生成装置10が提供する機能の一例である。図2ではユーザの移動距離のみを用いていたが、図4では移動経路も考慮する。図4は、経路401をユーザ402が走った状態を表す。ユーザ402は、映像生成装置10の一例として、メガネ型端末403を装着している。メガネ型端末403のディスプレイ(映像表示部109)に表示する映像は、3Dの擬似空間41に基づいて生成される。擬似空間41において、y軸が高さを表し、x軸とz軸が地面を表す。カメラ411は、擬似空間におけるメガネ型端末403の位置と向きを表す。アバター412は、設定されたペースと経路に基づいてxz平面を移動する。この図においては、原点からz軸の正の方向に出発し、途中で左方向に曲がってx軸の負の方向を経路としている。座標413はカメラ411の座標であり、測位により得られる経路401を、xz平面内で再現する。例えば、その初期点を原点とすることができる。座標414はアバター412の座標であり、設定されたペースと経路に基づいて移動する。例えば、z軸は、地磁気センサ等によって得られる北とすることができる。なお、この場合、アバター412のペースデータは、図3と異なり、2次元座標とする必要がある。なお、坂道等を考慮して、高さを考慮するようにしても良い。   FIG. 4 is an example of functions provided by the video generation device 10. In FIG. 2, only the movement distance of the user is used, but in FIG. 4, the movement route is also considered. FIG. 4 shows a state in which the user 402 has run on the route 401. The user 402 is wearing a glasses-type terminal 403 as an example of the video generation device 10. The video to be displayed on the display (video display unit 109) of the glasses-type terminal 403 is generated based on the 3D pseudo space 41. In the pseudo space 41, the y axis represents the height, and the x axis and the z axis represent the ground. The camera 411 represents the position and orientation of the glasses-type terminal 403 in the pseudo space. The avatar 412 moves in the xz plane based on the set pace and route. In this figure, the route starts from the origin in the positive z-axis direction, turns to the left in the middle, and takes the negative x-axis direction as the path. A coordinate 413 is a coordinate of the camera 411 and reproduces a path 401 obtained by positioning in the xz plane. For example, the initial point can be the origin. The coordinates 414 are the coordinates of the avatar 412, and move based on the set pace and route. For example, the z-axis can be north obtained by a geomagnetic sensor or the like. In this case, the pace data of the avatar 412 needs to be two-dimensional coordinates, unlike FIG. Note that the height may be considered in consideration of a slope or the like.

なお、測位部104が、映像生成装置10を装着したユーザが坂を走っていることを検出した場合、アバターデータ生成部107は、ペースデータを変更してもよい。例えば、アバターデータ生成部107は、ユーザが上り坂を走っている場合に、アバターのペースを下げることができる。例えば、アバターデータ生成部107は、ユーザが下り坂を走っている場合に、アバターのペースを上げることができる。このようにすることで、ランニングのバランスを取ることができる。ユーザが坂を上っているのか、下っているのかを判断するために、加速度センサを利用し、ユーザの鉛直方向の加速度を測定する方法や、地図データを備えている場合は、進行方向の地形データを参照する方法などの種々の方法を使用しても良い。   Note that when the positioning unit 104 detects that the user wearing the video generation device 10 is running on a slope, the avatar data generation unit 107 may change the pace data. For example, the avatar data generation unit 107 can reduce the avatar's pace when the user is running uphill. For example, the avatar data generation unit 107 can increase the avatar's pace when the user is running downhill. By doing so, it is possible to balance running. To determine whether the user is going up or down a hill, use an acceleration sensor to measure the user's vertical acceleration, or if you have map data, Various methods such as a method of referring to terrain data may be used.

なお、アバターデータ生成部107は、アバターの速度に基づいて、アバターのモーションを変更してもよい。例えば、加速度が大きい場合に、アバターデータ生成部107は、アバターの走るモーションのピッチを下げることができる。このようにすることで、アバターのモーションが実際のランナーのモーションに近づくことができる。   Note that the avatar data generation unit 107 may change the motion of the avatar based on the speed of the avatar. For example, when the acceleration is large, the avatar data generation unit 107 can reduce the pitch of the motion of the avatar. By doing in this way, the motion of an avatar can approach the motion of an actual runner.

(第2の実施形態)
第1の実施形態では、映像表示部109に、ランニングのペースメーカーとして動作するアバターを表示する方法について説明した。本実施形態では、映像生成装置10がトラック(Track、競技場、Arena、Stadium)モードとロード(Road、Street)モードを持つ
場合について説明する。
(Second Embodiment)
In the first embodiment, the method of displaying an avatar that operates as a running pacemaker on the video display unit 109 has been described. This embodiment demonstrates the case where the video production | generation apparatus 10 has a track (Track, stadium, Arena, Stadium) mode and a road (Road, Street) mode.

図2に戻って説明する。操作部101が、ユーザの操作により発生したデータに基づいて、映像生成装置10のトラックモードとロードモードとの変更を行うことができる。また、測位部104が、映像生成装置10の位置に基づいて、映像生成装置10のトラックモードとロードモードとの変更を行うことができる。   Returning to FIG. The operation unit 101 can change between the track mode and the load mode of the video generation device 10 based on data generated by a user operation. Further, the positioning unit 104 can change the track mode and the load mode of the video generation device 10 based on the position of the video generation device 10.

アバターデータ生成部107は、アバター座標をトラックモードかロードモードかに基づいて変更することができる。例えば、アバターデータ生成部107は、トラックモードのアバター座標を、ユーザの横とすることができる。例えば、アバターデータ生成部107は、ロードモードのアバター座標を、ユーザの前とすることができる。このようにすることで、ユーザの横の視界がクリアとなることができる。   The avatar data generation unit 107 can change the avatar coordinates based on the track mode or the load mode. For example, the avatar data generation unit 107 can set the avatar coordinates in the track mode to be next to the user. For example, the avatar data generation unit 107 can set the avatar coordinates in the load mode in front of the user. By doing in this way, a user's side view can be cleared.

トラックモードの場合、測位部104は、ユーザが周回することを利用してユーザの走行距離を補正してもよい。例えば、ユーザが400mトラックを1周したことを検出した場合、ユーザの走行距離を400mとしてもよい。例えば、ユーザが他のユーザを回避した場合、ユーザの測位データだけに基づいて走行距離を計算すると、1周の距離が伸びる場合がある。ユーザの1周を検出して走行距離を補正することで、距離が伸びる問題を回避することができる。例えば、測位部104は、ユーザの位置を一時記録し、ユーザがその位置に戻ってきたことを判断することで、1周を検出することができる。または、測位部104は、基準位置に配置されたビーコン等の無線デバイスからの信号を受信することで、1周を検出することができる。配置なお、ユーザが400mトラックを半周したことを検出した場合に、ユーザの走行距離を200mとしてもよく、限定されるものではない。   In the case of the track mode, the positioning unit 104 may correct the travel distance of the user using the fact that the user goes around. For example, when it is detected that the user has made a round of a 400 m track, the travel distance of the user may be 400 m. For example, when the user avoids other users, the distance for one lap may increase if the travel distance is calculated based only on the user's positioning data. By detecting one round of the user and correcting the travel distance, the problem that the distance increases can be avoided. For example, the positioning unit 104 can detect one round by temporarily recording the position of the user and determining that the user has returned to that position. Alternatively, the positioning unit 104 can detect one round by receiving a signal from a wireless device such as a beacon arranged at the reference position. Arrangement When the user detects that the user has made a half turn of the 400 m track, the user's travel distance may be 200 m, and is not limited.

アバターデータ生成部107は、アバターのモーションをトラックモードかロードモードかに基づいて変更することができる。例えば、アバターデータ生成部107は、ロードモードのアバターのモーションを、画面を占有しないものにすることができる。また、アバターのモデルデータを変更するなどの方法でアバターを半透明に表示する、アバダーを小さくする等の設定をしても良い。このようにすることで、ロードでのユーザの視界がクリアとなることができる。   The avatar data generation unit 107 can change the motion of the avatar based on the track mode or the load mode. For example, the avatar data generation unit 107 can make the avatar motion in the load mode not occupy the screen. Moreover, you may make settings, such as changing avatar model data, displaying an avatar translucently, or making an avader small. In this way, the user's field of view on the road can be cleared.

ロードモードの場合、測位部104は、地図データとのマッチングを行うことができる。例えば、測位部104は、映像生成装置10の緯度と経度を、地図データの道路情報等に基づいて算出することができる。このようにすることで、緯度と経度の精度が向上することができる。また、測位部104は、映像生成装置10の高度を、映像生成装置10の緯度、経度、及び地図データから算出することができる。   In the load mode, the positioning unit 104 can perform matching with map data. For example, the positioning unit 104 can calculate the latitude and longitude of the video generation device 10 based on road information or the like of map data. By doing so, the accuracy of latitude and longitude can be improved. In addition, the positioning unit 104 can calculate the altitude of the video generation device 10 from the latitude, longitude, and map data of the video generation device 10.

ロードモードの場合、3D映像生成部108は、地図の画像を含む映像を映像表示部109へ出力することができる。地図の画像は、ユーザの位置を示す情報を含むことができる。このようにすることで、ユーザは自分がどこを走っているかを把握することができる。   In the load mode, the 3D video generation unit 108 can output a video including a map image to the video display unit 109. The map image may include information indicating the position of the user. By doing in this way, the user can grasp where he is running.

ロードモードの一種として、より移動速度の速いサイクリングモードを設定できるようにしても良い。サイクリングモードの時は、映像生成装置10に表示するアバターの(仮
想的な)位置を、ユーザから遠く設定しても良い。これにより、ユーザから見た移動方向
の視界をロードモードより確保する。また、アバターの仮想位置がユーザと接近した際に、ロードモードの場合はアバターの仮想位置をユーザと並走させる位置に、サイクリングモードの時はアバターを半透明化し、ユーザと重なる位置に設定しても良い。また、画面端等に別ウィンドウを表示し、そこに別視点の映像を表示しても良い。これにより、サイクリングモードの高速移動時にユーザの視線が正面から外れることを防ぐことができる。また、走行位置の勾配、もしくはアバターの(仮想的な)位置の勾配により、アバターの加速度曲線を変更するなどの動作をしても良い。これらの勾配よってアバターのモーションを変更しても良い。また、地図データより現在地の速度制限情報を取得できる場合は、加速度曲線を変更してアバターの移動速度が制限速度を上回らないようにしても良い。
As a kind of road mode, a cycling mode with a faster moving speed may be set. In the cycling mode, the (virtual) position of the avatar displayed on the video generation device 10 may be set far from the user. Thereby, the field of view of the moving direction seen from the user is ensured from the load mode. Also, when the avatar's virtual position approaches the user, set the avatar's virtual position to run parallel with the user in the road mode, and make the avatar translucent and overlap with the user in the cycling mode. May be. Further, another window may be displayed on the screen edge or the like, and an image of another viewpoint may be displayed there. Thereby, it can prevent that a user's eyes | visual_axis remove | deviates from a front at the time of the high-speed movement of cycling mode. Also, an operation such as changing the acceleration curve of the avatar according to the gradient of the running position or the (virtual) position of the avatar may be performed. The motion of the avatar may be changed according to these gradients. When the speed limit information of the current location can be acquired from the map data, the acceleration curve may be changed so that the moving speed of the avatar does not exceed the speed limit.

なお、本発明に係る映像生成装置、映像生成方法、及び映像生成プログラムで動作するプログラムは、本発明に関わる上記実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的にRAMに蓄積され、その後、各種ROMやHDDに格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。プログラムを格納する記録媒体としては、半導体媒体(例えば、ROM、不揮発性メモリカード等)、光記録媒体(例えば、DVD、MO、MD、CD、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等のいずれであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。   The video generation apparatus, the video generation method, and the program that operates in the video generation program according to the present invention are a program that controls a CPU or the like (a computer is caused to function) so as to realize the functions of the above-described embodiments. Program). Information handled by these devices is temporarily stored in the RAM at the time of processing, then stored in various ROMs and HDDs, read out by the CPU, and corrected and written as necessary. As a recording medium for storing the program, a semiconductor medium (for example, ROM, nonvolatile memory card, etc.), an optical recording medium (for example, DVD, MO, MD, CD, BD, etc.), a magnetic recording medium (for example, magnetic tape, Any of a flexible disk etc. may be sufficient. In addition, by executing the loaded program, not only the functions of the above-described embodiment are realized, but also based on the instructions of the program, the processing is performed in cooperation with the operating system or other application programs. The functions of the invention may be realized.

また市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれる。また、上述した実施形態における映像生成装置、映像生成方法、及び映像生成プログラムの一部、または全部を典型的には集積回路であるLSIとして実現してもよい。受信装置の各機能ブロックは個別にチップ化してもよいし、一部、または全部を集積してチップ化してもよい。各機能ブロックを集積回路化した場合に、それらを制御する集積回路制御部が付加される。   In the case of distribution in the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, the storage device of the server computer is also included in the present invention. Further, part or all of the video generation apparatus, the video generation method, and the video generation program in the above-described embodiments may be realized as an LSI that is typically an integrated circuit. Each functional block of the receiving apparatus may be individually formed as a chip, or a part or all of them may be integrated into a chip. When each functional block is integrated, an integrated circuit controller for controlling them is added.

また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能である。   Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology can also be used.

なお、本願発明は上述の実施形態に限定されるものではない。本願発明の映像生成装置は、移動局装置への適用に限定されるものではなく、携帯型の機器や、ウエアラブル機器などに適用出来ることは言うまでもない。   In addition, this invention is not limited to the above-mentioned embodiment. It goes without saying that the video generation device of the present invention is not limited to application to a mobile station device, but can be applied to portable devices, wearable devices, and the like.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and the design and the like within the scope not departing from the gist of the present invention are also claimed. Included in the range.

本発明は、映像生成装置、映像生成方法、及び映像生成プログラムに用いて好適である。   The present invention is suitable for use in a video generation device, a video generation method, and a video generation program.

10 映像生成装置
101 操作部
102 制御部
103 センサ部
104 測位部
105 モーション部
106 カメラデータ生成部
107 アバターデータ生成部
108 3D映像生成部
109 映像表示部
201 経路
202 ユーザ
203 メガネ型端末
21 擬似空間
211 カメラ
212 アバター
213、214 座標
31 速さ表
32 距離表
401 経路
402 ユーザ
403 メガネ型端末
41 擬似空間
411 カメラ
412 アバター
413、414 座標
DESCRIPTION OF SYMBOLS 10 Video generation apparatus 101 Operation part 102 Control part 103 Sensor part 104 Positioning part 105 Motion part 106 Camera data generation part 107 Avatar data generation part 108 3D video generation part 109 Video display part 201 Path | route 202 User 203 Glasses type terminal 21 Pseudo space 211 Camera 212 Avatar 213, 214 Coordinate 31 Speed table 32 Distance table 401 Path 402 User 403 Glasses type terminal 41 Pseudo space 411 Camera 412 Avatar 413, 414 Coordinate

Claims (16)

3D擬似空間映像を生成する映像生成装置であって、
前記映像生成装置を制御する制御部と、
センサデータを取得するセンサ部と、
前記センサデータに基づいて、前記映像生成装置を装着しているユーザの測位データを算出する測位部と、
3D擬似空間におけるカメラ座標、カメラ向き、およびカメラ画角の少なくとも1つを含んで構成されるカメラデータを生成するカメラデータ生成部と、
前記3D擬似空間におけるアバター座標とアバターモーションからなるアバターデータを生成し、ペースデータに基づいて前記アバター座標を生成するアバターデータ生成部と、
前記カメラデータと前記アバターデータに基づいて、前記3D擬似空間映像を生成する3D映像生成部と、
前記3D擬似空間映像を表示する映像表示部と、
を備える映像生成装置。
A video generation device that generates a 3D pseudo-space video,
A control unit for controlling the video generation device;
A sensor unit for obtaining sensor data;
Based on the sensor data, a positioning unit that calculates positioning data of the user wearing the video generation device;
A camera data generation unit that generates camera data including at least one of camera coordinates, camera orientation, and camera angle of view in 3D pseudo space;
An avatar data generating unit that generates avatar data including avatar coordinates and avatar motion in the 3D pseudo space, and generates the avatar coordinates based on pace data;
Based on the camera data and the avatar data, a 3D video generation unit that generates the 3D pseudo-space video;
An image display unit for displaying the 3D pseudo-space image;
A video generation apparatus comprising:
前記ペースデータは、時間に対するアバターの位置、速度、または加速度の少なくとも1つを含んで構成される請求項1に記載の映像生成装置。   The video generation apparatus according to claim 1, wherein the pace data includes at least one of an avatar position, speed, or acceleration with respect to time. 前記センサデータに基づいて、前記ユーザのユーザモーションデータを算出するモーション検出部をさらに含む請求項1に記載の映像生成装置。   The video generation apparatus according to claim 1, further comprising a motion detection unit that calculates user motion data of the user based on the sensor data. 前記カメラデータは、前記測位データと前記ユーザモーションデータに基づいて設定される請求項3に記載の映像生成装置。   The video generation apparatus according to claim 3, wherein the camera data is set based on the positioning data and the user motion data. 前記測位データは、前記ユーザの速度または前記ユーザの速さである請求項1に記載の映像生成装置。   The video generation apparatus according to claim 1, wherein the positioning data is a speed of the user or a speed of the user. 前記ユーザモーションデータは前記ユーザの接地を含み、
前記測位部は、前記ユーザの接地が検出された場合に前記ユーザの速度または前記ユーザの速さを変化させる、
請求項4に記載の映像生成装置。
The user motion data includes a ground contact of the user;
The positioning unit changes the speed of the user or the speed of the user when the ground contact of the user is detected.
The video generation device according to claim 4.
前記センサデータは前記ユーザが登っている否かの情報を含み、
前記アバターデータ生成部は、前記ユーザが登っている場合に、前記アバターの速度または加速度を減少させる、
請求項1から6のいずれかに記載の映像生成装置。
The sensor data includes information on whether or not the user is climbing,
The avatar data generation unit reduces the speed or acceleration of the avatar when the user is climbing,
The video production | generation apparatus in any one of Claim 1 to 6.
前記センサデータは前記ユーザが下っている否かの情報を含み、
前記アバターデータ生成部は、前記ユーザが下っている場合に、前記アバターの速度または加速度を増加させる、
請求項1から6のいずれかに記載の映像生成装置。
The sensor data includes information on whether the user is down,
The avatar data generation unit increases the speed or acceleration of the avatar when the user is down,
The video production | generation apparatus in any one of Claim 1 to 6.
前記センサデータは前記ユーザのバイタルデータを含み、
前記アバターデータ生成部は、さらに前記バイタルデータに基づいて、前記アバター座標を生成する、
請求項1から8のいずれかに記載の映像生成装置。
The sensor data includes vital data of the user,
The avatar data generation unit further generates the avatar coordinates based on the vital data.
The video generation device according to claim 1.
前記制御部は、トラックに最適なトラックモードと、ロードに最適なロードモードを設
定する機能を有する、
請求項1から9のいずれかに記載の映像生成装置。
The control unit has a function of setting a track mode optimal for a track and a load mode optimal for loading.
The video production | generation apparatus in any one of Claim 1 to 9.
前記制御部が設定するモードが、前記トラックモードの場合と、前記ロードモードとの場合で、
前記アバターデータ生成部が生成する前記アバターデータが異なる、
請求項10に記載の映像生成装置。
In the case where the mode set by the control unit is the track mode and the load mode,
The avatar data generated by the avatar data generation unit is different.
The video generation device according to claim 10.
前記測位部は、地図情報とのマッチングを用いて、前記測位データを生成する、
請求項1から11のいずれかに記載の映像生成装置。
The positioning unit generates the positioning data using matching with map information.
The video generation device according to claim 1.
前記制御部が、前記トラックモードを設定する場合、
前記測位部は、前記ユーザの周回情報を検出し、
前記カメラデータ生成部は、前記周回情報に基づいて、前記カメラデータを補正する、
請求項10または11に記載の映像生成装置。
When the control unit sets the track mode,
The positioning unit detects the circulation information of the user,
The camera data generation unit corrects the camera data based on the circulation information.
The video generation device according to claim 10 or 11.
前記制御部は、前記ロードモードのときに、さらにランニングモードとサイクリングモードを設定する機能を有し、
前記アバターデータ生成部が生成する前記アバターデータが、前記ランニングモードの場合と、前記サイクリングモードの場合と、で異なる、
請求項10または11に記載の映像生成装置。
The control unit has a function of further setting a running mode and a cycling mode when in the road mode,
The avatar data generated by the avatar data generation unit is different between the running mode and the cycling mode.
The video generation device according to claim 10 or 11.
3D擬似空間映像を生成する映像生成方法であって、
前記映像生成方法を制御する制御過程と、
センサデータを取得するセンサ過程と、
前記センサデータに基づいて、前記映像生成装置を装着しているユーザの測位データを算出する測位過程と、
3D擬似空間におけるカメラ座標、カメラ向き、およびカメラ画角の少なくとも1つを含んで構成されるカメラデータを生成するカメラデータ生成過程と、
前記3D擬似空間におけるアバター座標とアバターモーションからなるアバターデータを生成し、ペースデータに基づいて前記アバター座標を生成するアバターデータ生成過程と、
前記カメラデータと前記アバターデータに基づいて、前記3D擬似空間映像を生成する3D映像生成過程と、
前記3D擬似空間映像を表示する映像表示過程と、
を備える映像生成方法。
A video generation method for generating a 3D pseudo-space video,
A control process for controlling the video generation method;
A sensor process for obtaining sensor data;
A positioning process for calculating positioning data of a user wearing the video generation device based on the sensor data;
A camera data generation process for generating camera data including at least one of camera coordinates, camera orientation, and camera angle of view in 3D pseudo space;
Avatar data generation process of generating avatar data including avatar coordinates and avatar motion in the 3D pseudo space, and generating the avatar coordinates based on pace data;
A 3D image generation process for generating the 3D pseudo-space image based on the camera data and the avatar data;
An image display process for displaying the 3D pseudo-space image;
A video generation method comprising:
請求項15に記載の映像生成方法をコンピュータに実行させるための映像生成プログラム。   A video generation program for causing a computer to execute the video generation method according to claim 15.
JP2015235637A 2015-12-02 2015-12-02 Video generation apparatus, video generation method, and video generation program Pending JP2019023770A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015235637A JP2019023770A (en) 2015-12-02 2015-12-02 Video generation apparatus, video generation method, and video generation program
PCT/JP2016/076746 WO2017094313A1 (en) 2015-12-02 2016-09-12 Video image generation device, video image generation method, and video image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015235637A JP2019023770A (en) 2015-12-02 2015-12-02 Video generation apparatus, video generation method, and video generation program

Publications (1)

Publication Number Publication Date
JP2019023770A true JP2019023770A (en) 2019-02-14

Family

ID=58796846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015235637A Pending JP2019023770A (en) 2015-12-02 2015-12-02 Video generation apparatus, video generation method, and video generation program

Country Status (2)

Country Link
JP (1) JP2019023770A (en)
WO (1) WO2017094313A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108465223B (en) * 2018-03-29 2021-04-23 台州市吉吉知识产权运营有限公司 A scientific running training method and system based on wearable device
CN114640839A (en) * 2020-12-01 2022-06-17 浙江宇视科技有限公司 A detection method, monitoring device and storage medium for monitoring area

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014098033A1 (en) * 2012-12-17 2014-06-26 Iwata Haruyuki Portable movement assistance device
JP2015166816A (en) * 2014-03-04 2015-09-24 富士通株式会社 Display device, display control program, and display control method

Also Published As

Publication number Publication date
WO2017094313A1 (en) 2017-06-08

Similar Documents

Publication Publication Date Title
US10905958B2 (en) Game device, control method, and non-transitory computer-readable medium
CN109643014B (en) Head mounted display tracking
CN110381910B (en) Walking support system, walking support method, and storage medium storing walking support program
CN108139815B (en) Discrete time warping of scenes and objects for display of virtual reality content
EP3117601B1 (en) Latency reduction in camera-projection systems
US10309762B2 (en) Reference coordinate system determination
US20150097719A1 (en) System and method for active reference positioning in an augmented reality environment
US20160292924A1 (en) System and method for augmented reality and virtual reality applications
WO2022193612A1 (en) Motion processing method and apparatus for game character, and storage medium and computer device
WO2019153836A1 (en) Method and device for determining attitude of virtual object in virtual environment, and medium
US10083519B2 (en) Information processing apparatus and information processing method for specifying a composition of a picture
WO2017219195A1 (en) Augmented reality displaying method and head-mounted display device
BR112015023345B1 (en) IN SITU CREATION OF TARGETED NATURAL RESOURCE PLANS
US20200058168A1 (en) System and method for aligning virtual objects on peripheral devices in low-cost augmented reality/virtual reality slip-in systems
US9547412B1 (en) User interface configuration to avoid undesired movement effects
WO2023246530A1 (en) Ar navigation method, and terminal and storage medium
WO2015048890A1 (en) System and method for augmented reality and virtual reality applications
JP6204635B1 (en) Golf play support system, golf play support method, and program
US11994676B2 (en) Method and system for resolving hemisphere ambiguity in six degree of freedom pose measurements
JP2019133207A (en) Video generation apparatus, video generation method, and video generation program
WO2017094313A1 (en) Video image generation device, video image generation method, and video image generation program
US20210008430A1 (en) Trajectory assistance systems and methods thereof
JP7580665B2 (en) Golf support system, golf support method, golf support program, server device, and client device
KR20180075439A (en) Method of providing golf putting line information using mobile device with lidar
US10529128B1 (en) Apparatus, system, and method for mapping a 3D environment