[go: up one dir, main page]

JP2022069007A - Information processing system and information processing method and information processing program - Google Patents

Information processing system and information processing method and information processing program Download PDF

Info

Publication number
JP2022069007A
JP2022069007A JP2020177915A JP2020177915A JP2022069007A JP 2022069007 A JP2022069007 A JP 2022069007A JP 2020177915 A JP2020177915 A JP 2020177915A JP 2020177915 A JP2020177915 A JP 2020177915A JP 2022069007 A JP2022069007 A JP 2022069007A
Authority
JP
Japan
Prior art keywords
information processing
scan data
dimensional effect
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020177915A
Other languages
Japanese (ja)
Inventor
妙子 閑
Taeko Kan
謙 印藤
Ken Indo
一馬 金井
Kazuma Kanai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Affexion Inc
Original Assignee
Affexion Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Affexion Inc filed Critical Affexion Inc
Priority to JP2020177915A priority Critical patent/JP2022069007A/en
Publication of JP2022069007A publication Critical patent/JP2022069007A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processing system, an information processing method, and an information processing program that can reduce a production cost of a video including a three-dimensional performance.SOLUTION: An information processor comprises an UI provision part providing a configuration screen for configuring a three dimensional effect, an acquisition part acquiring scan data from a sensor that acquires geography by scanning a space, a rendering part that renders a three dimensional effect set through the configuration screen provided by the UI provision part on the scan data, and a display part making the three dimensional effect rendered by the rendering part displayed.SELECTED DRAWING: Figure 1

Description

新規性喪失の例外適用申請有り There is an application for exception of loss of novelty

本発明は、情報処理システム、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing system, an information processing method and an information processing program.

従来、LIDAR(Light Detection and Ranging)と呼ばれる光学センサによりスキャンされたデータに画像を重畳させる技術があった。例えば、特許文献1には、LIDARセンサからの点群データをレンダリングすることにより、グラフィカル要素をレンダリングしてARディスプレイに表示する技術が開示されている。 Conventionally, there has been a technique of superimposing an image on data scanned by an optical sensor called LIDAR (Light Detection and Ringing). For example, Patent Document 1 discloses a technique of rendering a graphical element and displaying it on an AR display by rendering point cloud data from a lidar sensor.

特開2018-206366号公報Japanese Unexamined Patent Publication No. 2018-206366

しかし、従来の技術では、LIDARセンサからのスキャンデータに対してグラフィカル要素を追加するのみであり、スキャンデータそのものを映像の演出に使用するものではない。このため、3次元の演出を含む映像を制作するためには、別途3次元の演出データを用意する必要があり、制作コストが上昇してしまう場合があった。 However, in the conventional technique, only a graphical element is added to the scan data from the LIDAR sensor, and the scan data itself is not used for the production of the image. Therefore, in order to produce a video including a three-dimensional effect, it is necessary to separately prepare three-dimensional effect data, which may increase the production cost.

本発明は上記事情に鑑みてなされたものであり、3次元の演出を含む映像の制作コストを低減させることができる、情報処理システム、情報処理方法および情報処理プログラムを提供することを一つの目的とする。 The present invention has been made in view of the above circumstances, and one object of the present invention is to provide an information processing system, an information processing method, and an information processing program capable of reducing the production cost of an image including a three-dimensional effect. And.

(1)上記の課題を解決するため、情報処理装置は、3次元のエフェクトを設定するための設定画面を提供するUI提供部と、空間をスキャンして地形を取得するセンサからのスキャンデータを取得する取得部と、UI提供部において提供された設定画面を介して設定された3次元のエフェクトを、スキャンデータに対して描画する描画部と、描画部において描画された3次元のエフェクトを表示させる表示部とを備える。 (1) In order to solve the above problems, the information processing device receives scan data from a UI provider that provides a setting screen for setting a three-dimensional effect and a sensor that scans the space and acquires the terrain. Displays the drawing unit that draws the 3D effect set via the acquisition unit and the setting screen provided by the UI providing unit on the scan data, and the drawing unit that draws the 3D effect drawn by the drawing unit. It is provided with a display unit to be displayed.

(2)また、実施形態の情報処理装置において、取得部は、スキャンデータをメッシュデータとして取得して、描画部は、取得部において取得されたメッシュデータに対して3次元のエフェクトを描画するものであってもよい。 (2) Further, in the information processing apparatus of the embodiment, the acquisition unit acquires scan data as mesh data, and the drawing unit draws a three-dimensional effect on the mesh data acquired by the acquisition unit. May be.

(3)また、実施形態の情報処理装置において、描画部は、取得部において取得されたスキャンデータが更新されたか否かを判断し、スキャンデータが更新された場合に、3次元のエフェクトを更新して描画するものであってもよい。 (3) Further, in the information processing apparatus of the embodiment, the drawing unit determines whether or not the scan data acquired by the acquisition unit has been updated, and when the scan data is updated, the three-dimensional effect is updated. And draw it.

(4)また、実施形態の情報処理装置において、UI提供部は、表示部において表示される表示範囲において、3次元のエフェクトの描画順序を設定するための設定画面を提供するものであってもよい。 (4) Further, in the information processing apparatus of the embodiment, even if the UI providing unit provides a setting screen for setting the drawing order of the three-dimensional effect in the display range displayed on the display unit. good.

(5)また、実施形態の情報処理装置において、描画部は、スキャンデータに対してベジェ曲線を用いたレンダリングを実行することにより、3次元のエフェクトを描画するものであってもよい。 (5) Further, in the information processing apparatus of the embodiment, the drawing unit may draw a three-dimensional effect by performing rendering using a Bezier curve on the scan data.

(6)上記の課題を解決するため、情報処理方法は、情報処理装置を用いた情報処理方法であって、3次元のエフェクトを設定するための設定画面を提供するUI提供ステップと、空間をスキャンして地形を取得するセンサからのスキャンデータを取得する取得ステップと、UI提供ステップにおいて提供された設定画面を介して設定された3次元のエフェクトを、スキャンデータに対して描画する描画ステップと、描画ステップにおいて描画された3次元のエフェクトを表示させる表示ステップとを含む。 (6) In order to solve the above problem, the information processing method is an information processing method using an information processing device, and a UI providing step for providing a setting screen for setting a three-dimensional effect and a space are provided. The acquisition step of acquiring the scan data from the sensor that scans and acquires the terrain, and the drawing step of drawing the 3D effect set via the setting screen provided in the UI provision step on the scan data. , Includes a display step to display the three-dimensional effect drawn in the drawing step.

(7)上記の課題を解決するため、情報処理プログラムは、コンピュータに、3次元のエフェクトを設定するための設定画面を提供するUI提供処理と、空間をスキャンして地形を取得するセンサからのスキャンデータを取得する取得処理と、UI提供処理において提供された設定画面を介して設定された3次元のエフェクトを、スキャンデータに対して描画する描画処理と、描画処理において描画された3次元のエフェクトを表示させる表示処理とを実行させる。 (7) In order to solve the above problems, the information processing program is provided with a UI providing process that provides a setting screen for setting a three-dimensional effect to the computer, and a sensor that scans the space and acquires the terrain. The acquisition process for acquiring scan data, the drawing process for drawing the 3D effect set via the setting screen provided in the UI provision process for the scan data, and the 3D drawing process drawn in the drawing process. Execute the display process to display the effect.

本発明の一つの実施形態によれば、情報処理装置は、3次元のエフェクトを設定するための設定画面を提供し、空間をスキャンして地形を取得するセンサからのスキャンデータを取得し、提供された設定画面を介して設定された3次元のエフェクトを、スキャンデータに対して描画し、描画された3次元のエフェクトを表示させることにより、3次元の演出を含む映像の制作コストを低減させることができる。 According to one embodiment of the present invention, the information processing apparatus provides a setting screen for setting a three-dimensional effect, and acquires and provides scan data from a sensor that scans a space and acquires a terrain. By drawing the 3D effect set via the set screen on the scan data and displaying the drawn 3D effect, the production cost of the video including the 3D effect is reduced. be able to.

実施形態における情報処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the information processing apparatus in embodiment. 実施形態における情報処理装置の第1の表示例を示す図である。It is a figure which shows the 1st display example of the information processing apparatus in embodiment. 実施形態における情報処理装置の第2の表示例を示す図である。It is a figure which shows the 2nd display example of the information processing apparatus in embodiment. 実施形態における情報処理装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the information processing apparatus in embodiment. 実施形態における情報処理装置の動作の第1の例を示すフローチャートである。It is a flowchart which shows 1st example of the operation of the information processing apparatus in embodiment.

以下、図面を参照して本発明の一実施形態における情報処理装置、情報処理方法および情報処理プログラムについて詳細に説明する。 Hereinafter, the information processing apparatus, the information processing method, and the information processing program according to the embodiment of the present invention will be described in detail with reference to the drawings.

先ず、図1を用いて、情報処理装置の構成を説明する。図1は、実施形態における情報処理装置の構成の一例を示すブロック図である。 First, the configuration of the information processing apparatus will be described with reference to FIG. FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus according to the embodiment.

図1において、情報処理装置1は、UI提供部11、取得部12、描画部13および表示部14の機能部を有する。情報処理装置1の各機能部は、ソフトウェアによって実現されるものとして説明する。情報処理装置1は、例えば、スマートフォン、タブレットPC、またはヘッドマウント型、メガネ型もしくは腕時計型の装置である。情報処理装置1は、ネットワーク9を介してサーバ2に通信可能に接続されている。 In FIG. 1, the information processing apparatus 1 has a functional unit of a UI providing unit 11, an acquisition unit 12, a drawing unit 13, and a display unit 14. Each functional unit of the information processing apparatus 1 will be described as being realized by software. The information processing device 1 is, for example, a smartphone, a tablet PC, or a head-mounted, glasses-type, or wristwatch-type device. The information processing apparatus 1 is communicably connected to the server 2 via the network 9.

UI提供部11は、3次元のエフェクトを設定するための設定画面(UI:User Interface)を提供する。取得部12は、空間をスキャンして地形を取得するセンサからのスキャンデータを取得する。描画部13は、UI提供部11において提供された設定画面を介して設定された3次元のエフェクトを、取得部12において取得されたスキャンデータに対して描画する。さらに、表示部14は、描画部13において描画された3次元のエフェクトを表示させる。 The UI providing unit 11 provides a setting screen (UI: User Interface) for setting a three-dimensional effect. The acquisition unit 12 acquires scan data from a sensor that scans the space and acquires the terrain. The drawing unit 13 draws a three-dimensional effect set via the setting screen provided by the UI providing unit 11 on the scan data acquired by the acquiring unit 12. Further, the display unit 14 displays the three-dimensional effect drawn by the drawing unit 13.

空間をスキャンして地形を取得するセンサ(以下、「センサ」と省略する場合がある。)とは、空間に存在する物体の形状をスキャンするセンサであり、例えば、LIDAR技術を用いたセンサである。LIDAR技術を用いたセンサは、例えば、レーザー光が用いて物体までの距離を計測(測距)することによって空間に存在する物体の形状を3次元で計測することができる。LIDAR技術を用いたセンサは、紫外線、赤外線、または近赤外線を用いるものであってもよい。なお、センサの機能は、Unity(登録商標)においてAR(Augmented Reality)を実現するための、Vuforia(登録商標)またはAR Foundation(登録商標)において実現されるものであってもよい。また、センサは、例えばステレオカメラであってもよい。 A sensor that scans space to acquire terrain (hereinafter, may be abbreviated as "sensor") is a sensor that scans the shape of an object existing in space, for example, a sensor using lidar technology. be. A sensor using the LIDAR technique can measure the shape of an object existing in space in three dimensions by measuring the distance to the object (distance measurement) using, for example, a laser beam. The sensor using the lidar technique may use ultraviolet rays, infrared rays, or near infrared rays. The function of the sensor may be realized in Vuforia (registered trademark) or AR Foundation (registered trademark) for realizing AR (Augmented Reality) in Unity (registered trademark). Further, the sensor may be, for example, a stereo camera.

スキャンデータとは、センサにおいて計測された空間に存在する物体の3次元の測距データに基づき作成された3次元のデータであって、空間に存在する物体の形状を表現するデータである。スキャンデータは、例えば、空間における物体の外形を3次元の座標値の点の集合で表す点群データ(メッシュデータ)である。スキャンデータは、点群データを繋ぐ直線、ベジェ曲線、または自由曲線を示す線データであってもよい。また、スキャンデータは、点群データを含む平面または曲面を示す面データであってもよい。なお、3次元のデータには、例えば、道路、床面、壁面等の平面をスキャンしたデータも含まれる。 The scan data is three-dimensional data created based on the three-dimensional distance measurement data of an object existing in the space measured by the sensor, and is data expressing the shape of the object existing in the space. The scan data is, for example, point cloud data (mesh data) in which the outer shape of an object in space is represented by a set of points having three-dimensional coordinate values. The scan data may be line data indicating a straight line connecting point cloud data, a Bezier curve, or a free curve. Further, the scan data may be surface data indicating a plane or a curved surface including point cloud data. The three-dimensional data includes, for example, data obtained by scanning a plane such as a road, a floor surface, or a wall surface.

3次元のエフェクトとは、スキャンデータに対して付加される3次元の演出である。3次元のエフェクトは、例えば、上述した点群データ、線データまたは面データで表される空間に存在する物体の3次元の表面に対する、点、線もしくは面で表現されるオブジェクトの画像の追加、または追加されたオブジェクトの画像への着色等である。 The three-dimensional effect is a three-dimensional effect added to the scan data. The 3D effect is, for example, the addition of an image of an object represented by a point, line or surface to the 3D surface of an object existing in the space represented by the point group data, line data or surface data described above. Or, coloring the image of the added object, etc.

追加されるオブジェクトの画像は、静止画または動画のいずれであってもよい。追加されるオブジェクトが動画である場合、3次元のエフェクトは、例えば、オブジェクトが3次元の物体の表面を波打つように動くような演出とすることができる。また、追加されるオブジェクトが動画である場合、3次元のエフェクトは、オブジェクトが3次元の物体の表面を移動するように動くような演出としてもよい。また、追加されたオブジェクトが静止画である場合、3次元のエフェクトは、オブジェクト(例えば、テクスチャ)が3次元の物体の表面に貼付けられるような演出であってもよい。 The image of the object to be added may be either a still image or a moving image. When the object to be added is a moving object, the three-dimensional effect can be, for example, an effect in which the object moves in a wavy manner on the surface of the three-dimensional object. Further, when the object to be added is a moving object, the three-dimensional effect may be an effect in which the object moves as if moving on the surface of the three-dimensional object. Further, when the added object is a still image, the three-dimensional effect may be an effect such that the object (for example, a texture) is attached to the surface of the three-dimensional object.

また、3次元のエフェクトは、スキャンデータに対して逐次追加されるものであってもよい。例えば、3次元のエフェクトは、スキャンデータの3次元の物体における手前側(センサに近い側)から奥側(センサから遠い側)に向かって逐次追加されるようにしてもよい。これにより、オブジェクトが3次元の物体の手前側から奥側に広がるような演出をすることができる。 Further, the three-dimensional effect may be added sequentially to the scan data. For example, the three-dimensional effect may be sequentially added from the front side (closer side to the sensor) to the back side (far side from the sensor) of the scan data in the three-dimensional object. As a result, it is possible to create an effect in which the object spreads from the front side to the back side of the three-dimensional object.

また、3次元のエフェクトは、順次取得されたスキャンデータに対して逐次追加されるようにしてもよい。例えば、情報処理装置1のセンサの向きを利用者が移動(例えば、PAN)させることにより、水平方向または垂直方向のスキャンデータが順次取得される場合、3次元のエフェクトは、センサの移動によって順次取得されたスキャンデータに対して逐次追加される。これにより、オブジェクトがセンサの移動に応じて3次元の物体に逐次追加されるような演出をすることができる。 Further, the three-dimensional effect may be sequentially added to the sequentially acquired scan data. For example, when the user moves (for example, PAN) the direction of the sensor of the information processing apparatus 1 to sequentially acquire horizontal or vertical scan data, the three-dimensional effect is sequentially obtained by moving the sensor. It is added sequentially to the acquired scan data. As a result, it is possible to produce an effect in which the object is sequentially added to the three-dimensional object according to the movement of the sensor.

また、例えば、固定されたセンサにおいて移動する物体をスキャンした場合においても、物体の移動に伴ってスキャンデータが順次取得される。この場合においても物体の移動によって順次取得されたスキャンデータに対して3次元のエフェクトが逐次追加され、3次元の物体にオブジェクトが逐次追加されるような演出をすることができる。 Further, for example, even when a moving object is scanned by a fixed sensor, scan data is sequentially acquired as the object moves. Even in this case, the three-dimensional effect is sequentially added to the scan data sequentially acquired by the movement of the object, and the object can be sequentially added to the three-dimensional object.

UI提供部11は、3次元のエフェクトを設定するための設定画面を提供する。設定画面とは、上述した様々な種類の3次元のエフェクトの表示態様を設定するための設定画面である。設定画面には、例えば、3次元のエフェクトの種類、オブジェクトの描画速度、オブジェクトの色、または、空間に存在する物体の種類(例えば、人、動物、建物、壁、床、天上、家具、自動車、電柱、または道路標識等)に応じた3次元のエフェクトの表示態様等を利用者が設定するためのUIが含まれる。設定画面には、予め設定されたエフェクトを選択するためのUIが含まれていてもよい。 The UI providing unit 11 provides a setting screen for setting a three-dimensional effect. The setting screen is a setting screen for setting the display mode of the various types of three-dimensional effects described above. The settings screen may display, for example, the type of 3D effect, the drawing speed of the object, the color of the object, or the type of object that exists in space (eg, people, animals, buildings, walls, floors, heavens, furniture, cars). , Electric poles, road signs, etc.), and includes a UI for the user to set a display mode of a three-dimensional effect. The setting screen may include a UI for selecting a preset effect.

また、UI提供部11は、3次元のエフェクトにおけるオブジェクトの描画順序を設定するものであってもよい。オブジェクトの描画順序とは、例えば、表示画面の手前側から奥側にオブジェクトを描画する順序、奥側から手前側にオブジェクトを描画する順序、右側から左側にオブジェクトを描画する順序等である。また、オブジェクトの描画順序とは、物体の種類に応じた描画順序等であってもよい。 Further, the UI providing unit 11 may set the drawing order of the objects in the three-dimensional effect. The drawing order of the objects is, for example, the order of drawing the objects from the front side to the back side of the display screen, the order of drawing the objects from the back side to the front side, the order of drawing the objects from the right side to the left side, and the like. Further, the drawing order of the objects may be a drawing order or the like according to the type of the object.

描画部13は、UI提供部11において提供された設定画面を介して設定された3次元のエフェクトを、スキャンデータに対して描画する。描画部13は、スキャンデータの画像に対して3次元のエフェクトの画像を重畳するように描画する。画像の重畳は、スキャンデータの画像のレイヤ(データの階層)とエフェクトの画像のレイヤとを同じレイヤとして描画するようにしてもよく、あるいは別のレイヤとして描画するようにしてもよい。スキャンデータの画像に対して3次元のエフェクトの画像を重畳するように描画することにより、空間に存在する物体の画像にエフェクトが追加されるような演出をすることが可能となる。 The drawing unit 13 draws a three-dimensional effect set via the setting screen provided by the UI providing unit 11 on the scan data. The drawing unit 13 draws the image of the scan data so as to superimpose the image of the three-dimensional effect. The image superposition may be such that the image layer of the scan data (data layer) and the layer of the effect image are drawn as the same layer, or may be drawn as different layers. By drawing so that the image of the three-dimensional effect is superimposed on the image of the scan data, it is possible to create an effect that the effect is added to the image of the object existing in the space.

また、描画部13は、スキャンデータの画像を描画することなく、3次元のエフェクトの画像のみを描画するようにしてもよい。3次元のエフェクトの画像のみを描画することにより、何も無い空間にエフェクトが出現するような演出をすることが可能となる。 Further, the drawing unit 13 may draw only the image of the three-dimensional effect without drawing the image of the scan data. By drawing only the image of the three-dimensional effect, it is possible to create an effect in which the effect appears in an empty space.

また、描画部13は、情報処理装置1が有する図示しないカメラにおいて撮影された撮影画像に対して3次元のエフェクトの画像を重畳するようにしてもよい。撮影画像に3次元のエフェクトの画像を重畳することにより、撮影画像を含むARにおける3次元のエフェクトを演出することが可能となる。 Further, the drawing unit 13 may superimpose an image of a three-dimensional effect on a captured image captured by a camera (not shown) included in the information processing apparatus 1. By superimposing the image of the three-dimensional effect on the captured image, it is possible to produce the three-dimensional effect in AR including the captured image.

描画部13は、スキャンデータに対してベジェ曲線を用いたレンダリングを実行することにより、3次元のエフェクトを描画するようにしてもよい。ベジェ曲線とは、N個の制御点から得られるN-1次曲線である。描画部13は、スキャンデータの点群に対してベジェ曲線を算出し、算出したベジェ曲線を繋げてレンダリングすることにより3次元の物体を表現することができる。例えば、描画部13は、スキャンデータに対して上述した機能を有するグラフィックソフトウェアを利用してグラフィック処理を実行することにより、3次元のエフェクトを描画することができる。 The drawing unit 13 may draw a three-dimensional effect by performing rendering using a Bezier curve on the scan data. The Bezier curve is an N-1 degree curve obtained from N control points. The drawing unit 13 can represent a three-dimensional object by calculating a Bezier curve for a point cloud of scan data and connecting and rendering the calculated Bezier curve. For example, the drawing unit 13 can draw a three-dimensional effect by executing graphic processing on the scan data using graphic software having the above-mentioned function.

表示部14は、描画部13において描画された3次元のエフェクトを、例えば、情報処理装置1の表示部に表示させる。情報処理装置1の表示部は、例えば、液晶表示装置、タッチパネル、またはヘッドマウント型、メガネ型もしくは腕時計型のディスプレイ等である。 The display unit 14 displays, for example, the three-dimensional effect drawn by the drawing unit 13 on the display unit of the information processing apparatus 1. The display unit of the information processing device 1 is, for example, a liquid crystal display device, a touch panel, a head mount type, glasses type, or a wristwatch type display.

表示部14は、情報処理装置1が有する図示しないカメラにおいて撮影された撮影画像を表示するようにしてもよい。スキャンデータと撮影画像を同時に表示することにより、撮影画像を含むARにおける3次元のエフェクトを演出することが可能となる。 The display unit 14 may display a captured image captured by a camera (not shown) included in the information processing apparatus 1. By displaying the scan data and the captured image at the same time, it is possible to produce a three-dimensional effect in AR including the captured image.

サーバ2は、演出提供部21を有する。演出提供部21は、予め設定された3次元のエフェクトの表示態様を設定ファイルとして記憶して情報処理装置1に提供する。例えば、演出提供部21は、UI提供部11において提供された設定画面から設定された3次元のエフェクトの表示態様を記憶する。3次元のエフェクトの表示態様を記憶することにより、演出提供部21は、設定された3次元のエフェクトの表示態様を情報処理装置1に対して提供することが可能となり、3次元のエフェクトの表示態様の再利用を可能にする。演出提供部21は、利用者以外の他の者が設定した表示態様を記憶して情報処理装置1に提供することにより、表示態様の共有をするようにしてもよい。 The server 2 has an effect providing unit 21. The effect providing unit 21 stores a preset display mode of the three-dimensional effect as a setting file and provides it to the information processing apparatus 1. For example, the effect providing unit 21 stores the display mode of the three-dimensional effect set from the setting screen provided by the UI providing unit 11. By storing the display mode of the three-dimensional effect, the effect providing unit 21 can provide the set display mode of the three-dimensional effect to the information processing apparatus 1, and display the three-dimensional effect. Allows reuse of aspects. The effect providing unit 21 may share the display mode by storing the display mode set by a person other than the user and providing the display mode to the information processing apparatus 1.

なお、演出提供部21は、利用者を認証して、認証された利用者に対して表示態様を提供するようにしてもよい。また、演出提供部21は、課金をした利用者のみを認証して表示態様を提供するようにしてもよい。 The effect providing unit 21 may authenticate the user and provide the display mode to the authenticated user. Further, the effect providing unit 21 may authenticate only the charged user and provide the display mode.

なお、本実施形態において、「提供」という場合、プッシュ型の送信であってもプル型の送信であってもよい。また、本実施形態において、「取得」という場合、プル型の受信であってもプッシュ型の受信であってもよい。 In the present embodiment, the term "provided" may be either push-type transmission or pull-type transmission. Further, in the present embodiment, the term "acquisition" may be a pull-type reception or a push-type reception.

また、情報処理装置1が有する上述した各機能部は、機能の一例を示したものであり、情報処理装置1が有する機能を限定したものではない。例えば、情報処理装置1は、上記全ての機能部を有している必要はなく、一部の機能部を有するものであってもよい。また、情報処理装置1は、上記以外の他の機能を有していてもよい。例えば、情報処理装置1が有する機能部は、サーバ2において実現されてもよい。また、サーバ2が有する機能部は、情報処理装置1において実現されてもよい。 Further, each of the above-mentioned functional units possessed by the information processing apparatus 1 shows an example of the functions, and does not limit the functions possessed by the information processing apparatus 1. For example, the information processing apparatus 1 does not have to have all the above-mentioned functional parts, and may have some of the functional parts. Further, the information processing apparatus 1 may have a function other than the above. For example, the functional unit of the information processing apparatus 1 may be realized in the server 2. Further, the functional unit of the server 2 may be realized in the information processing apparatus 1.

また、上記各機能部は、上述の通り、ソフトウェアによって実現されるものとして説明した。しかし上記機能部の中で少なくとも1つ以上の機能部は、ハードウェアによって実現されるものであってもよい。 Further, as described above, each of the above functional units has been described as being realized by software. However, at least one or more functional units in the above functional units may be realized by hardware.

また、上記何れかの機能部は、1つの機能部を複数の機能部に分割して実施してもよい。また、上記何れか2つ以上の機能部を1つの機能部に集約して実施してもよい。図1は、情報処理装置1が有する機能を機能ブロックで表現したものであり、例えば、各機能部がそれぞれ別個のプログラムファイル等で構成されていることを示すものではない。 Further, any of the above functional units may be implemented by dividing one functional unit into a plurality of functional units. Further, any two or more of the above functional units may be integrated into one functional unit. FIG. 1 shows the functions of the information processing apparatus 1 represented by functional blocks, and does not show, for example, that each functional unit is composed of a separate program file or the like.

また、情報処理装置1は、1つの筐体によって実現される装置であっても、ネットワーク等を介して接続された複数の装置から実現されるシステムであってもよい。例えば、情報処理装置1は、その機能の一部または全部をクラウドコンピューティングシステムによって提供されるクラウドサービス等、他の仮想的な装置によって実現するものであってもよい。すなわち、情報処理装置1は、上記各機能部のうち、少なくとも1以上の機能部を他の装置において実現するようにしてもよい。 Further, the information processing device 1 may be a device realized by one housing or a system realized by a plurality of devices connected via a network or the like. For example, the information processing device 1 may realize a part or all of its functions by another virtual device such as a cloud service provided by a cloud computing system. That is, the information processing apparatus 1 may realize at least one or more functional units among the above-mentioned functional units in another device.

次に、図2~図3を用いて、情報処理装置1の表示装置の表示例を説明する。 Next, a display example of the display device of the information processing device 1 will be described with reference to FIGS. 2 to 3.

図2は、実施形態における情報処理装置の第1の表示例を示す図である。 FIG. 2 is a diagram showing a first display example of the information processing apparatus according to the embodiment.

図2において、表示画面1000は、表示部14において表示される。表示画面1000は、建物の横を人が歩いているところをカメラで撮影した撮影画像に3次元のエフェクトを加えたものを表示している。図2において、人の部分には3次元のエフェクトによるオブジェクトを描画していない。人の部分に3次元のエフェクトによるオブジェクトを描画しないためには、例えば、人の部分に透明のオブジェクト1001を描画するようにしてもよい。描画部13は、スキャンデータの中から人を示す特徴量を抽出して、人を認識してもよい。特徴量とは、例えば、空間に存在する色データの分布(ヒストグラム)、物体の形状または色データのベクトルデータである。特徴量が近似している物体は、同一の物体であると認識することができる。 In FIG. 2, the display screen 1000 is displayed on the display unit 14. The display screen 1000 displays a photographed image taken by a camera of a person walking beside a building with a three-dimensional effect added. In FIG. 2, the object by the three-dimensional effect is not drawn on the human part. In order not to draw the object by the three-dimensional effect on the human part, for example, the transparent object 1001 may be drawn on the human part. The drawing unit 13 may recognize a person by extracting a feature amount indicating a person from the scan data. The feature amount is, for example, a distribution (histogram) of color data existing in space, a shape of an object, or vector data of color data. Objects with similar features can be recognized as the same object.

また、表示画面1000は、人が歩いている床面を塗りつぶしたオブジェクト1002を表示している。オブジェクト1002には、波打つ動画のオブジェクト1003が表示されている。また、表示画面1000は、人が歩いている横の壁面に対して、ブラインド状のオブジェクト1004を表示している。オブジェクト1004は、静止画のオブジェクトであり、図示手前側から奥側に対して逐次描画がされる。 Further, the display screen 1000 displays an object 1002 that fills the floor surface on which a person is walking. The wavy moving object 1003 is displayed on the object 1002. Further, the display screen 1000 displays a blind-shaped object 1004 on a wall surface on the side where a person is walking. The object 1004 is a still image object, and is drawn sequentially from the front side to the back side of the drawing.

図3は、実施形態における情報処理装置の第2の表示例を示す図である。 FIG. 3 is a diagram showing a second display example of the information processing apparatus according to the embodiment.

図3において、表示画面2000は、表示部14において表示される。表示画面2000は、街中を人が歩いているところをカメラで撮影した撮影画像に3次元のエフェクトを加えたものを表示している。図3において、人の部分には人の形状に対して3次元で着色をしたオブジェクト2001が描画されて表示されている。人が歩くことにより、人の形状が変化するため、オブジェクトの着色が変化して表示される。また、表示画面2000は、道路に面して設置された自動販売機に対してモザイクのオブジェクト2002が描画されて表示されている。また、道路、建物などのそれ以外の部分に対しては3次元のエフェクトによるオブジェクトが描画されていない。ここで、自動販売機は固定されているが、センサをPANさせることによりセンサからの距離が変化してモザイクの表示が変化する。 In FIG. 3, the display screen 2000 is displayed on the display unit 14. The display screen 2000 displays a photographed image taken by a camera of a person walking in the city with a three-dimensional effect added. In FIG. 3, the object 2001, which is three-dimensionally colored with respect to the shape of the human, is drawn and displayed on the human portion. As a person walks, the shape of the person changes, so the coloring of the object changes and is displayed. Further, on the display screen 2000, the mosaic object 2002 is drawn and displayed on the vending machine installed facing the road. In addition, objects by the three-dimensional effect are not drawn on other parts such as roads and buildings. Here, although the vending machine is fixed, the distance from the sensor changes and the mosaic display changes by PANing the sensor.

次に、図4を用いて、情報処理装置1のハードウェア構成を説明する。図4は、実施形態における情報処理装置1のハードウェア構成の一例を示すブロック図である。なお、サーバ2のハードウェア構成は、情報処理装置1に準ずるものとして、説明を省略する。 Next, the hardware configuration of the information processing apparatus 1 will be described with reference to FIG. FIG. 4 is a block diagram showing an example of the hardware configuration of the information processing apparatus 1 according to the embodiment. The hardware configuration of the server 2 is similar to that of the information processing device 1, and the description thereof will be omitted.

情報処理装置1は、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、I/O機器104、および通信I/F(Interface)105を有する。情報処理装置1は、図1で説明した情報処理プログラムを実行する装置である。 The information processing device 1 includes a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, an I / O device 104, and a communication I / F (Interface) 105. The information processing device 1 is a device that executes the information processing program described with reference to FIG.

CPU101は、RAM102またはROM103に記憶された情報処理プログラムを実行することにより、利用者端末の制御を行う。情報処理プログラムは、例えば、プログラムを記録した記録媒体、又はネットワークを介したプログラム配信サーバ等から取得されて、ROM103にインストールされ、CPU101から読出されて実行される。 The CPU 101 controls the user terminal by executing the information processing program stored in the RAM 102 or the ROM 103. The information processing program is acquired from, for example, a recording medium on which the program is recorded, a program distribution server via a network, or the like, installed in the ROM 103, read from the CPU 101, and executed.

I/O機器104は、操作入力機能と表示機能(操作表示機能)を有する。I/O機器104は、例えばタッチパネルである。タッチパネルは、情報処理端末10の利用者に対して指先又はタッチペン等を用いた操作入力を可能にする。本実施形態におけるI/O機器104は、操作表示機能を有するタッチパネルを用いる場合を説明するが、I/O機器104は、表示機能を有する表示装置と操作入力機能を有する操作入力装置とを別個有するものであってもよい。その場合、タッチパネルの表示画面は表示装置の表示画面、タッチパネルの操作は操作入力装置の操作として実施することができる。なお、I/O機器104は、ヘッドマウント型、メガネ型、腕時計型のディスプレイ等の種々の形態によって実現されてもよい。 The I / O device 104 has an operation input function and a display function (operation display function). The I / O device 104 is, for example, a touch panel. The touch panel enables the user of the information processing terminal 10 to input operations using a fingertip, a stylus, or the like. The case where the I / O device 104 in the present embodiment uses a touch panel having an operation display function will be described, but the I / O device 104 separates the display device having the display function and the operation input device having the operation input function. It may have. In that case, the display screen of the touch panel can be performed as the display screen of the display device, and the operation of the touch panel can be performed as the operation of the operation input device. The I / O device 104 may be realized by various forms such as a head mount type, a glasses type, and a wristwatch type display.

通信I/F105は、通信用のI/Fである。通信I/F105は、例えば、無線LAN、有線LAN、赤外線等の近距離無線通信を実行する。図は通信用のI/Fとして通信I/F105のみを図示するが、情報処理端末10は複数の通信方式においてそれぞれの通信用のI/Fを有するものであってもよい。 The communication I / F 105 is an I / F for communication. The communication I / F 105 executes short-range wireless communication such as a wireless LAN, a wired LAN, and infrared rays. Although the figure shows only the communication I / F 105 as the communication I / F, the information processing terminal 10 may have an I / F for each communication in a plurality of communication methods.

次に、図5を用いて、情報処理装置1の動作を説明する。 Next, the operation of the information processing apparatus 1 will be described with reference to FIG.

図5は、実施形態における情報処理装置1の動作を示すフローチャートである。第1の例で示すフローチャートは、アンカーおよび音源の配置に係る動作を説明している。 FIG. 5 is a flowchart showing the operation of the information processing apparatus 1 in the embodiment. The flowchart shown in the first example describes the operation related to the arrangement of the anchor and the sound source.

図5において、情報処理装置1は、3次元のエフェクトを設定するための設定画面を提供する(ステップS11)。設定画面の提供は、例えば、利用者が、情報処理装置1にインストールされた情報処理プログラムを起動することにより実行される。利用者は提供された設定画面を介して3次元のエフェクトの設定を行いエフェクトの設定情報を情報処理装置1に保存する。エフェクト設定情報の保存は、例えば、RAM102にエフェクトの設定情報を記憶することにより実行することができる。 In FIG. 5, the information processing apparatus 1 provides a setting screen for setting a three-dimensional effect (step S11). The provision of the setting screen is executed, for example, by the user activating the information processing program installed in the information processing apparatus 1. The user sets the three-dimensional effect via the provided setting screen and saves the effect setting information in the information processing apparatus 1. The effect setting information can be saved, for example, by storing the effect setting information in the RAM 102.

ステップS11の処理を実行した後、情報処理装置1は、空間をスキャンして地形を取得するセンサからのスキャンデータを取得する(ステップS12)。 After executing the process of step S11, the information processing apparatus 1 acquires the scan data from the sensor that scans the space and acquires the terrain (step S12).

ステップS12の処理を実行した後、情報処理装置1は、エフェクトの設定に変更があったか否かを判断する(ステップS13)。エフェクトの設定に変更があったか否かは、例えば、ステップS11において提供された設定画面を用いて利用者が3次元のエフェクトの設定を変更したか否かで判断することができる。 After executing the process of step S12, the information processing apparatus 1 determines whether or not the effect setting has been changed (step S13). Whether or not the effect setting has been changed can be determined by, for example, whether or not the user has changed the three-dimensional effect setting using the setting screen provided in step S11.

エフェクトの設定に変更があったと判断した場合(ステップS13:YES)、情報処理装置1は、スキャンデータに対して描画するエフェクトの設定を変更して設定情報を保存する(ステップS14)。 When it is determined that the effect setting has been changed (step S13: YES), the information processing apparatus 1 changes the setting of the effect to be drawn for the scan data and saves the setting information (step S14).

ステップS14の処理を実行した後、または、エフェクトに変更がなかったと判断した場合(ステップS13:NO)、情報処理装置1は、スキャンデータに対して保存されたエフェクトの設定情報に応じてエフェクトを描画する(ステップS15)。 After executing the process of step S14, or when it is determined that there is no change in the effect (step S13: NO), the information processing apparatus 1 applies the effect according to the setting information of the effect saved for the scan data. Draw (step S15).

ステップS15の処理を実行した後、情報処理装置1は、ステップS15において描画された3次元のエフェクトを表示装置に表示させる(ステップS16)。ステップS16の処理を実行した後、情報処理装置1はフローチャートに示す動作を終了する。 After executing the process of step S15, the information processing apparatus 1 causes the display device to display the three-dimensional effect drawn in step S15 (step S16). After executing the process of step S16, the information processing apparatus 1 ends the operation shown in the flowchart.

なお、図示したフローチャートは、動作の一例を示したものであり、動作を限定するものではない。 It should be noted that the illustrated flowchart shows an example of the operation, and does not limit the operation.

また、本実施形態で説明した装置を構成する機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本実施形態の上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 Further, a program for realizing the function constituting the apparatus described in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Therefore, the above-mentioned various processes of the present embodiment may be performed. The "computer system" here may include hardware such as an OS and peripheral devices. Further, the "computer system" includes the homepage providing environment (or display environment) if the WWW system is used. The "computer-readable recording medium" includes a flexible disk, a magneto-optical disk, a ROM, a writable non-volatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, and the like. Refers to the storage device of.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組合せで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the "computer-readable recording medium" is a volatile memory inside a computer system that serves as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line (for example, DRAM (Dynamic)). It also includes those that hold the program for a certain period of time, such as Random Access Memory)). Further, the program may be transmitted from a computer system in which this program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the above program may be for realizing a part of the above-mentioned functions. Further, a so-called difference file (difference program) may be used, which realizes the above-mentioned function in combination with a program already recorded in the computer system.

以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。 Although the embodiment of the present invention has been described above with reference to the drawings, the specific configuration is not limited to this embodiment and includes various changes within the range not deviating from the gist of the present invention. Will be.

1 情報処理装置
11 UI提供部
12 取得部
13 描画部
14 表示部
2 サーバ
21 演出提供部
9 ネットワーク
101 CPU
102 RAM
103 ROM
104 I/O機器
105 通信I/F
1000 表示画面
1001 オブジェクト
1002 オブジェクト
1003 オブジェクト
2000 表示画面
2001 オブジェクト
2002 オブジェクト
1 Information processing device 11 UI providing unit 12 Acquisition unit 13 Drawing unit 14 Display unit 2 Server 21 Production providing unit 9 Network 101 CPU
102 RAM
103 ROM
104 I / O equipment 105 Communication I / F
1000 display screen 1001 object 1002 object 1003 object 2000 display screen 2001 object 2002 object

Claims (7)

3次元のエフェクトを設定するための設定画面を提供するUI提供部と、
空間をスキャンして地形を取得するセンサからのスキャンデータを取得する取得部と、
前記UI提供部において提供された設定画面を介して設定された3次元のエフェクトを、前記スキャンデータに対して描画する描画部と、
前記描画部において描画された3次元のエフェクトを表示させる表示部と
を備える、情報処理装置。
A UI provider that provides a setting screen for setting 3D effects,
An acquisition unit that acquires scan data from a sensor that scans space and acquires terrain,
A drawing unit that draws a three-dimensional effect set via the setting screen provided by the UI providing unit on the scan data, and a drawing unit.
An information processing device including a display unit for displaying a three-dimensional effect drawn in the drawing unit.
前記取得部は、前記スキャンデータをメッシュデータとして取得して、
前記描画部は、前記取得部において取得されたメッシュデータに対して前記3次元のエフェクトを描画する、請求項1に記載の情報処理装置。
The acquisition unit acquires the scan data as mesh data and obtains the scan data.
The information processing apparatus according to claim 1, wherein the drawing unit draws the three-dimensional effect on the mesh data acquired by the acquisition unit.
前記描画部は、前記取得部において取得されたスキャンデータが更新されたか否かを判断し、スキャンデータが更新された場合に、前記3次元のエフェクトを更新して描画する、請求項1または2に記載の情報処理装置。 The drawing unit determines whether or not the scan data acquired by the acquisition unit has been updated, and when the scan data is updated, the drawing unit updates and draws the three-dimensional effect. The information processing device described in. 前記UI提供部は、前記表示部において表示される表示範囲において、前記3次元のエフェクトの描画順序を設定するための設定画面を提供する、請求項1から3のいずれか一項に記載の情報処理装置。 The information according to any one of claims 1 to 3, wherein the UI providing unit provides a setting screen for setting a drawing order of the three-dimensional effect in the display range displayed on the display unit. Processing equipment. 前記描画部は、前記スキャンデータに対してベジェ曲線を用いたレンダリングを実行することにより、前記3次元のエフェクトを描画する、請求項1から4のいずれか一項の情報処理装置。 The information processing apparatus according to any one of claims 1 to 4, wherein the drawing unit draws the three-dimensional effect by executing rendering of the scan data using a Bezier curve. 情報処理装置を用いた情報処理方法であって、
3次元のエフェクトを設定するための設定画面を提供するUI提供ステップと、
空間をスキャンして地形を取得するセンサからのスキャンデータを取得する取得ステップと、
前記UI提供ステップにおいて提供された設定画面を介して設定された3次元のエフェクトを、前記スキャンデータに対して描画する描画ステップと、
前記描画ステップにおいて描画された3次元のエフェクトを表示させる表示ステップと
を含む、情報処理方法。
It is an information processing method using an information processing device.
A UI providing step that provides a setting screen for setting 3D effects,
The acquisition step to acquire the scan data from the sensor that scans the space and acquires the terrain,
A drawing step for drawing a three-dimensional effect set via the setting screen provided in the UI providing step on the scan data, and a drawing step.
An information processing method including a display step for displaying a three-dimensional effect drawn in the drawing step.
コンピュータに、
3次元のエフェクトを設定するための設定画面を提供するUI提供処理と、
空間をスキャンして地形を取得するセンサからのスキャンデータを取得する取得処理と、
前記UI提供処理において提供された設定画面を介して設定された3次元のエフェクトを、前記スキャンデータに対して描画する描画処理と、
前記描画処理において描画された3次元のエフェクトを表示させる表示処理と
を実行させるための、情報処理プログラム。
On the computer
UI provision processing that provides a setting screen for setting 3D effects, and
The acquisition process to acquire the scan data from the sensor that scans the space and acquires the terrain,
A drawing process for drawing a three-dimensional effect set via the setting screen provided in the UI providing process on the scan data, and a drawing process.
An information processing program for executing a display process for displaying a three-dimensional effect drawn in the drawing process.
JP2020177915A 2020-10-23 2020-10-23 Information processing system and information processing method and information processing program Pending JP2022069007A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020177915A JP2022069007A (en) 2020-10-23 2020-10-23 Information processing system and information processing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020177915A JP2022069007A (en) 2020-10-23 2020-10-23 Information processing system and information processing method and information processing program

Publications (1)

Publication Number Publication Date
JP2022069007A true JP2022069007A (en) 2022-05-11

Family

ID=81521605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020177915A Pending JP2022069007A (en) 2020-10-23 2020-10-23 Information processing system and information processing method and information processing program

Country Status (1)

Country Link
JP (1) JP2022069007A (en)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3063134B2 (en) * 1990-09-26 2000-07-12 ソニー株式会社 Terrain data creation device
JP2004505393A (en) * 2000-08-09 2004-02-19 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド Image conversion and coding technology
WO2006009257A1 (en) * 2004-07-23 2006-01-26 Matsushita Electric Industrial Co., Ltd. Image processing device and image processing method
JP2007257386A (en) * 2006-03-24 2007-10-04 Mitsubishi Motors Corp Data verification method and verification system for vehicle electronic control unit
WO2018139117A1 (en) * 2017-01-27 2018-08-02 ソニー株式会社 Information processing device, information processing method and program thereof
JP2019045892A (en) * 2017-08-29 2019-03-22 ソニー株式会社 Information processing apparatus, information processing method, program and movable body
JP2019117053A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2019117054A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2019117433A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2019117052A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2019117432A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2019117214A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Object data structure
JP6548802B1 (en) * 2018-11-30 2019-07-24 グリー株式会社 A video distribution system that delivers live video including animation of character objects generated based on the movement of actors
JP2019139425A (en) * 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ Simulation system and program
CN111784833A (en) * 2020-06-23 2020-10-16 长江空间信息技术工程有限公司(武汉) 3D dynamic visualization display method of flood evolution situation based on WebGL

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3063134B2 (en) * 1990-09-26 2000-07-12 ソニー株式会社 Terrain data creation device
JP2004505393A (en) * 2000-08-09 2004-02-19 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド Image conversion and coding technology
WO2006009257A1 (en) * 2004-07-23 2006-01-26 Matsushita Electric Industrial Co., Ltd. Image processing device and image processing method
JP2007257386A (en) * 2006-03-24 2007-10-04 Mitsubishi Motors Corp Data verification method and verification system for vehicle electronic control unit
WO2018139117A1 (en) * 2017-01-27 2018-08-02 ソニー株式会社 Information processing device, information processing method and program thereof
JP2019045892A (en) * 2017-08-29 2019-03-22 ソニー株式会社 Information processing apparatus, information processing method, program and movable body
JP2019117053A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2019117054A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2019117433A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2019117052A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2019117432A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2019117214A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Object data structure
JP2019139425A (en) * 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ Simulation system and program
JP6548802B1 (en) * 2018-11-30 2019-07-24 グリー株式会社 A video distribution system that delivers live video including animation of character objects generated based on the movement of actors
CN111784833A (en) * 2020-06-23 2020-10-16 长江空间信息技术工程有限公司(武汉) 3D dynamic visualization display method of flood evolution situation based on WebGL

Similar Documents

Publication Publication Date Title
JP7344974B2 (en) Multi-virtual character control method, device, and computer program
US11756229B2 (en) Localization for mobile devices
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
JP6627861B2 (en) Image processing system, image processing method, and program
US20220237872A1 (en) Multi-Resolution Voxel Meshing
US11294535B2 (en) Virtual reality VR interface generation method and apparatus
CN106663334A (en) 3d scanning with depth cameras using mesh sculpting
CN108594999B (en) Control method and device for panoramic image display system
CN107248194A (en) A kind of CAE data three-dimensionals based on cloud computing show exchange method
EP3128413A1 (en) Sharing mediated reality content
CN109725956B (en) Scene rendering method and related device
US20170213394A1 (en) Environmentally mapped virtualization mechanism
KR102317182B1 (en) Apparatus for generating composite image using 3d object and 2d background
CN112950753A (en) Virtual plant display method, device, equipment and storage medium
CN107924586A (en) Search image content
US20110242271A1 (en) Synthesizing Panoramic Three-Dimensional Images
CN119678188A (en) Mesh transformation with efficient depth reconstruction and filtering in see-through augmented reality (AR) systems
CN114764840A (en) Image rendering method, device, equipment and storage medium
CN111859199A (en) Locate content in the environment
CN107065164A (en) Image presentation method and device
CN108460842A (en) A kind of system and method for creating virtual three-dimensional environment
JP2022069007A (en) Information processing system and information processing method and information processing program
JP2002300612A (en) Image generation device, program, and information storage medium
KR101939530B1 (en) Method and apparatus for displaying augmented reality object based on geometry recognition
JP2021022207A (en) Image processing program, image processing apparatus, and image processing method

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20201120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230725