[go: up one dir, main page]

JP2017208688A - Program, computer device, program execution method, and computer system - Google Patents

Program, computer device, program execution method, and computer system Download PDF

Info

Publication number
JP2017208688A
JP2017208688A JP2016099388A JP2016099388A JP2017208688A JP 2017208688 A JP2017208688 A JP 2017208688A JP 2016099388 A JP2016099388 A JP 2016099388A JP 2016099388 A JP2016099388 A JP 2016099388A JP 2017208688 A JP2017208688 A JP 2017208688A
Authority
JP
Japan
Prior art keywords
projection
image
specific point
virtual
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016099388A
Other languages
Japanese (ja)
Inventor
一紀 伊藤
Kazunori Ito
一紀 伊藤
佑輔 清水
Yusuke Shimizu
佑輔 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2016099388A priority Critical patent/JP2017208688A/en
Priority to CN201680085784.XA priority patent/CN109155835B/en
Priority to US16/302,407 priority patent/US10960310B2/en
Priority to PCT/JP2016/088520 priority patent/WO2017199460A1/en
Priority to EP16902478.3A priority patent/EP3461123A4/en
Priority to TW105144124A priority patent/TWI733731B/en
Publication of JP2017208688A publication Critical patent/JP2017208688A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/27Output arrangements for video game devices characterised by a large display in a public venue, e.g. in a movie theatre, stadium or game arena
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program, computer device, program execution method, and system that allow a user to experience a virtual world with full of presence and are more entertaining.SOLUTION: A program is executed by a computer device capable of communication or connection with a projection device for projecting a projection image on a projection surface. The program causes the computer device to function as: designation point position change means for changing the position of a designation point to designate a projection image to be projected on the projection surface; and transmission means for transmitting an image corresponding to the position of the designation point to the projection device as a projection image.SELECTED DRAWING: Figure 2

Description

本発明は、プログラム、コンピュータ装置、プログラム実行方法、及び、コンピュータシステムに関する。   The present invention relates to a program, a computer apparatus, a program execution method, and a computer system.

従来より、画像を投影面に投影可能な投影装置とを用いて、建築物や物体、あるいは空間等(以下、建築物等という)にコンピュータグラフィックス(以下、CGという)を投影する、プロジェクションマッピング(ビデオマッピング、マッピングプロジェクションともいう)という技術が知られている。   Conventionally, projection mapping is performed by projecting computer graphics (hereinafter referred to as CG) onto a building, an object, or a space (hereinafter referred to as a building) using a projection device capable of projecting an image onto a projection surface. A technique called video mapping or mapping projection is known.

また、投影面に画像を投影するだけではなく、投影された画像を変化させる技術も知られている。例えば、特許文献1には、容器中の砂の表面にプロジェクタによってガイド画像を投影し、ユーザがガイド画像にしたがって造形物を作成すると、作成された造形物の形状にしたがって、変化させた画像を造形物に対して投影するシステムについて記載されている。   Further, a technique for changing the projected image as well as projecting the image on the projection surface is also known. For example, in Patent Document 1, when a guide image is projected by a projector onto the surface of sand in a container and a user creates a modeled object according to the guide image, an image changed according to the shape of the created modeled object is displayed. A system for projecting onto a model is described.

米国特許第8388139号U.S. Pat. No. 8,388,139

通常、プロジェクションマッピングは、投影される画像(以下、投影画像という)を受動的に楽しむものであり、ユーザが画像を変化させることはできなかった。また、特許文献1に記載された技術は、現実世界の情報(例えば、砂の高さ)を測定し、測定された情報にしたがって投影画像を変化させているにすぎず、ユーザが仮想世界の中を移動しているような臨場感を体験できるものではなかった。   In general, projection mapping passively enjoys a projected image (hereinafter referred to as a projected image), and the user cannot change the image. Moreover, the technique described in Patent Document 1 merely measures real-world information (for example, the height of sand) and changes the projection image according to the measured information. I couldn't feel the presence of moving inside.

本発明の少なくとも1つの実施の形態の目的は、ユーザが臨場感あふれる仮想世界を体験することが可能な、より趣向性の高いプログラム、コンピュータ装置、プログラム実行方法、及び、システムを提供することを目的とする。   An object of at least one embodiment of the present invention is to provide a more interesting program, computer apparatus, program execution method, and system that allow a user to experience a virtual world full of realism. Objective.

非限定的な観点によると、投影画像を投影面に投影する投影装置と通信又は接続が可能なコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、投影面に投影する投影画像を特定するための特定点の位置を変更する特定点位置変更手段、特定点の位置に応じた画像を、投影画像として投影装置に送信する送信手段として機能させる、プログラムである。   According to a non-limiting aspect, the program is executed in a computer device that can communicate with or connect to a projection device that projects a projection image onto a projection surface, and the computer device identifies a projection image to be projected onto the projection surface. This is a program that causes a specific point position changing unit to change the position of a specific point for the purpose and a transmission unit that transmits an image corresponding to the position of the specific point as a projection image to the projection apparatus.

非限定的な観点によると、投影画像を投影面に投影する投影装置と通信又は接続が可能なコンピュータ装置であって、投影面に投影する投影画像を特定するための特定点の位置を変更する特定点位置変更手段と、特定点の位置に応じた画像を、投影画像として投影装置に送信する送信手段とを備える、コンピュータ装置である。   According to a non-limiting aspect, the computer apparatus can communicate with or connect to a projection apparatus that projects a projection image onto a projection plane, and changes the position of a specific point for identifying the projection image projected onto the projection plane. The computer device includes specific point position changing means and transmission means for transmitting an image corresponding to the position of the specific point as a projection image to the projection apparatus.

非限定的な観点によると、投影画像を投影面に投影する投影装置と通信又は接続が可能なコンピュータ装置において実行されるプログラム実行方法であって、投影面に投影する投影画像を特定するための特定点の位置を変更するステップと、特定点の位置に応じた画像を、投影画像として投影装置に送信するステップとを有するプログラム実行方法である。   According to a non-limiting aspect, there is provided a program execution method executed in a computer device capable of communicating with or connecting to a projection device that projects a projection image onto a projection surface, for specifying the projection image to be projected onto the projection surface. A program execution method comprising: changing a position of a specific point; and transmitting an image according to the position of the specific point to a projection apparatus as a projection image.

非限定的な観点によると、投影画像を投影面に投影する投影装置と、該投影装置と通信又は接続が可能なコンピュータ装置とを備えたコンピュータシステムであって、コンピュータ装置が、投影面に投影する投影画像を特定するための特定点の位置を変更する特定点位置変更手段と、特定点の位置に応じた画像を、投影画像として投影装置に送信する送信手段とを備え、投影装置が、受信した画像を投影面に投影する投影手段を備える、コンピュータシステムである。   According to a non-limiting aspect, a computer system including a projection device that projects a projection image onto a projection surface, and a computer device that can communicate with or connect to the projection device, the computer device projects onto the projection surface. Specific point position changing means for changing the position of a specific point for specifying a projection image to be transmitted, and transmission means for transmitting an image corresponding to the position of the specific point to the projection apparatus as a projection image, the projection apparatus comprising: It is a computer system provided with the projection means which projects the received image on a projection surface.

本発明の各実施形態により1または2以上の不足が解決される。   Each embodiment of the present invention solves one or more deficiencies.

本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。It is a block diagram which shows the structure of the system corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、投影装置から投影面に画像を投影した様子を表すブロック図である。It is a block diagram showing a mode that the image was projected on the projection surface from the projection apparatus corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、特定点、仮想カメラ、及び、仮想スクリーンの概念を表す図である。It is a figure showing the concept of the specific point, virtual camera, and virtual screen corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行画面の例である。It is an example of a program execution screen corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least 1 of embodiment of this invention.

以下、添付図面を参照して、本発明の実施の形態について説明する。以下、効果に関する記載は、本発明の実施の形態の効果の一側面であり、ここに記載するものに限定されない。また、以下で説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同である。   Embodiments of the present invention will be described below with reference to the accompanying drawings. Hereinafter, the description regarding the effect is one aspect of the effect of the embodiment of the present invention, and is not limited to what is described here. In addition, the order of the processes constituting the flowchart described below is out of order as long as no contradiction or inconsistency occurs in the process contents.

[第一の実施の形態]
次に、本発明の第一の実施の形態の概要について説明をする。図1は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置4は、特定点位置変更部201、及び、送信部202を少なくとも備える。
[First embodiment]
Next, the outline of the first embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration of a computer apparatus corresponding to at least one of the embodiments of the present invention. The computer device 4 includes at least a specific point position changing unit 201 and a transmitting unit 202.

特定点位置変更部201は、投影面に投影する投影画像を特定するための特定点の位置を変更する機能を有する。送信部202は、特定点の位置に応じた画像を、投影画像として投影装置に送信する機能を有する。   The specific point position changing unit 201 has a function of changing the position of the specific point for specifying the projection image to be projected onto the projection plane. The transmission unit 202 has a function of transmitting an image corresponding to the position of the specific point as a projection image to the projection apparatus.

本発明の第一の実施の形態におけるプログラム実行処理について説明する。図2は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。   The program execution process in the first embodiment of the present invention will be described. FIG. 2 is a flowchart of a program execution process corresponding to at least one of the embodiments of the present invention.

コンピュータ装置4は、投影装置が投影面に投影する投影画像を特定するための特定点の位置を変更する(ステップS1)。次に、ステップS1において変更された特定点の位置に応じた画像を、投影画像として投影装置に送信し(ステップS2)、終了する。   The computer apparatus 4 changes the position of the specific point for specifying the projection image that the projection apparatus projects onto the projection plane (step S1). Next, an image corresponding to the position of the specific point changed in step S1 is transmitted as a projection image to the projection apparatus (step S2), and the process ends.

第一の実施の形態の一側面として、ユーザは仮想世界内を移動しているような臨場感あふれる体験をすることができ、ユーザの趣向性を高めることができる。   As one aspect of the first embodiment, the user can have a realistic experience such as moving in the virtual world, and the user's preference can be enhanced.

第一の実施の形態において、「投影」とは、例えば、物の姿を平面又は曲面に映し出すことをいう。「画像」とは、例えば、図形や写真、イメージ、グラフィックス等であり、静止画、動画のいずれであってもよい。「投影面」とは、例えば、画像を投影可能な平面又は曲面をいう。   In the first embodiment, “projection” refers to, for example, projecting the appearance of an object on a flat surface or a curved surface. The “image” is, for example, a figure, a photograph, an image, graphics, etc., and may be a still image or a moving image. “Projection plane” refers to, for example, a plane or curved surface on which an image can be projected.

「投影装置」とは、例えば、プロジェクタ等、投影が可能な装置をいう。「通信」とは、例えば、有線又は無線の通信により、データの送受信を行うことをいう。「接続」とは、例えば、ケーブル等の伝送媒体を介して機器同士を通信可能にすることをいう。「コンピュータ装置」とは、例えば、プログラムの実行にしたがって演算を処理することができる装置をいい、他の装置と通信により接続可能な装置をいう。   “Projection device” refers to a device capable of projection, such as a projector. “Communication” refers to transmission / reception of data by, for example, wired or wireless communication. “Connecting” means enabling devices to communicate with each other via a transmission medium such as a cable. “Computer device” means, for example, a device that can process an operation according to execution of a program, and means a device that can be connected to another device by communication.

「特定点」とは、例えば、投影面に投影する投影画像を特定するために用いられる点をいい、ユーザキャラクタの仮想空間内の位置等を含む概念である。「位置を変更」とは、例えば、位置に関する情報に関して、現在の情報とは異なる情報に変更することをいう。「送信」とは、例えば、電気信号を送ることをいい、電子情報を電気信号に変換して他の機器に送ることも含む概念である。   “Specific point” refers to, for example, a point used for specifying a projection image to be projected onto the projection plane, and is a concept including the position of the user character in the virtual space. “Changing the position” means, for example, changing information related to the position to information different from the current information. “Transmission” refers to, for example, sending an electrical signal, and is a concept including converting electronic information into an electrical signal and sending it to another device.

[第二の実施の形態]
次に、本発明の第二の実施の形態の概要について説明をする。図3は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置4は、特定点位置変更部211、仮想カメラ位置変更部212、画像生成部213、及び、送信部214を少なくとも備える。
[Second Embodiment]
Next, the outline of the second embodiment of the present invention will be described. FIG. 3 is a block diagram showing a configuration of a computer apparatus corresponding to at least one of the embodiments of the present invention. The computer device 4 includes at least a specific point position changing unit 211, a virtual camera position changing unit 212, an image generating unit 213, and a transmitting unit 214.

特定点位置変更部211は、投影面に投影する投影画像を特定するための特定点の位置を変更する機能を有する。仮想カメラ位置変更部212は、特定点の位置の変更に伴って仮想カメラの位置を変更する機能を有する。   The specific point position changing unit 211 has a function of changing the position of the specific point for specifying the projection image to be projected onto the projection plane. The virtual camera position changing unit 212 has a function of changing the position of the virtual camera in accordance with the change of the position of the specific point.

画像生成部213は、仮想3次元空間を、仮想カメラから仮想スクリーン上に透視変換をして画像を生成する機能を有する。送信部214は、生成された画像を投影画像として投影装置に送信する機能を有する。   The image generation unit 213 has a function of generating an image by performing perspective transformation on the virtual three-dimensional space from the virtual camera onto the virtual screen. The transmission unit 214 has a function of transmitting the generated image as a projection image to the projection apparatus.

本発明の第二の実施の形態におけるプログラム実行処理について説明する。図4は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。   The program execution process in the second embodiment of the present invention will be described. FIG. 4 is a flowchart of the program execution process corresponding to at least one of the embodiments of the present invention.

コンピュータ装置4は、投影装置が投影面に投影する投影画像を特定するための特定点の位置を変更する(ステップS11)。次に、ステップS11において変更された特定点の位置に、仮想カメラの位置を変更する(ステップS12)。   The computer apparatus 4 changes the position of the specific point for specifying the projection image that the projection apparatus projects onto the projection plane (step S11). Next, the position of the virtual camera is changed to the position of the specific point changed in step S11 (step S12).

さらに、仮想3次元空間を、仮想カメラから仮想スクリーン上に透視変換をして画像を生成する(ステップS13)。そして、ステップS13において生成された画像を投影画像として投影装置に送信し(ステップS14)、終了する。   Further, the virtual three-dimensional space is perspective-transformed from the virtual camera onto the virtual screen to generate an image (step S13). Then, the image generated in step S13 is transmitted as a projection image to the projection apparatus (step S14), and the process ends.

第二の実施の形態の一側面として、投影面に投影する投影画像を特定するための特定点の位置を変更し、特定点の位置に応じて仮想カメラの位置を変更することで、ユーザが仮想世界内を移動しているような感覚を与えることが可能となり、投影画像の臨場感を高め、かつ、ユーザの趣向性をより高めることができる。   As one aspect of the second embodiment, the user changes the position of a specific point for specifying a projection image to be projected on the projection plane, and changes the position of the virtual camera according to the position of the specific point. This makes it possible to give a sense that the user is moving in the virtual world, can increase the sense of presence of the projected image, and can further enhance the user's preference.

第二の実施の形態において、「投影」、「画像」、「投影面」、「投影装置」、「通信」、「接続」、「コンピュータ装置」、「特定点」、「位置を変更」、及び、「送信」とは、それぞれ第一の実施の形態において記載した内容と同一である。   In the second embodiment, “projection”, “image”, “projection plane”, “projection device”, “communication”, “connection”, “computer device”, “specific point”, “change position”, “Transmission” is the same as the contents described in the first embodiment.

第二の実施の形態において、「仮想3次元空間」とは、例えば、コンピュータ上の仮想的な空間であって、三次元で表現される空間をいう。「仮想カメラ」とは、例えば、CGを描くときの視点又は画角をカメラに例えたものをいう。「仮想スクリーン」とは、例えば、仮想カメラにより撮影された仮想世界内の光景を、平面画像として投影するための2次元の平面をいう。   In the second embodiment, the “virtual three-dimensional space” refers to, for example, a virtual space on a computer that is expressed in three dimensions. The “virtual camera” refers to, for example, a camera whose viewpoint or angle of view when drawing CG is compared. The “virtual screen” refers to, for example, a two-dimensional plane for projecting a scene in the virtual world photographed by a virtual camera as a planar image.

第二の実施の形態において、「透視変換」とは、例えば、仮想カメラのような任意の視点から仮想3次元空間を撮影し、遠近感をもった2次元画像に変換する方法をいう。「画像を生成」とは、例えば、素材となる情報をもとに、画像を描写することをいう。   In the second embodiment, “perspective transformation” refers to a method of taking a virtual three-dimensional space from an arbitrary viewpoint such as a virtual camera and converting it into a two-dimensional image with a sense of perspective. “Generate an image” means, for example, drawing an image based on information as a material.

[第三の実施の形態]
次に、本発明の第三の実施の形態の概要について説明をする。第三の実施の形態において、少なくとも2つ以上の投影面を有しており、一の投影面と、他の投影面とが、所定の角度を有して設置されるものである。
[Third embodiment]
Next, the outline of the third embodiment of the present invention will be described. In the third embodiment, at least two projection surfaces are provided, and one projection surface and another projection surface are installed with a predetermined angle.

図5は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置4は、特定点位置変更部221、仮想カメラ位置変更部222、画像生成部223、第一画像生成部224、第二画像生成部225、及び、送信部226を少なくとも備える。   FIG. 5 is a block diagram showing a configuration of a computer apparatus corresponding to at least one of the embodiments of the present invention. The computer device 4 includes at least a specific point position changing unit 221, a virtual camera position changing unit 222, an image generating unit 223, a first image generating unit 224, a second image generating unit 225, and a transmitting unit 226.

特定点位置変更部221は、投影面に投影する投影画像を特定するための特定点の位置を変更する機能を有する。仮想カメラ位置変更部222は、特定点の位置の変更に伴って仮想カメラの位置を変更する機能を有する。   The specific point position changing unit 221 has a function of changing the position of the specific point for specifying the projection image to be projected onto the projection plane. The virtual camera position changing unit 222 has a function of changing the position of the virtual camera in accordance with the change of the position of the specific point.

画像生成部223は、仮想3次元空間を、仮想カメラから仮想スクリーン上に透視変換をして画像を生成する機能を有する。第一画像生成部224は、一の投影面に対応する第一仮想カメラから第一仮想スクリーン上に透視変換して画像を生成する機能を有する。第二画像生成部225は、他の投影面に対応する第二仮想カメラから第二仮想スクリーン上に透視変換して画像を生成する機能を有する。送信部226は、生成された画像を投影画像として投影装置に送信する機能を有する。   The image generation unit 223 has a function of generating an image by performing a perspective transformation on a virtual three-dimensional space from a virtual camera onto a virtual screen. The first image generation unit 224 has a function of generating an image by performing perspective transformation on the first virtual screen from the first virtual camera corresponding to one projection plane. The second image generation unit 225 has a function of generating an image by performing perspective transformation on the second virtual screen from the second virtual camera corresponding to another projection plane. The transmission unit 226 has a function of transmitting the generated image as a projection image to the projection apparatus.

本発明の第三の実施の形態におけるプログラム実行処理について説明する。図6は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。   The program execution process in the third embodiment of the present invention will be described. FIG. 6 is a flowchart of the program execution process corresponding to at least one of the embodiments of the present invention.

コンピュータ装置4は、投影装置が投影面に投影する投影画像を特定するための特定点の位置を変更する(ステップS21)。次に、ステップS21において変更された特定点の位置に、仮想カメラの位置を変更する(ステップS22)。   The computer apparatus 4 changes the position of the specific point for specifying the projection image that the projection apparatus projects onto the projection plane (step S21). Next, the position of the virtual camera is changed to the position of the specific point changed in step S21 (step S22).

さらに、仮想3次元空間を、一の投影面に対応する第一仮想カメラから第一仮想スクリーン上に透視変換して画像を生成する(ステップS23)。また、他の投影面に対応する第二仮想カメラから第二仮想スクリーン上に透視変換して画像を生成する(ステップS24)。   Further, the virtual three-dimensional space is perspective-transformed on the first virtual screen from the first virtual camera corresponding to one projection plane to generate an image (step S23). Further, the second virtual camera corresponding to another projection plane is perspective-transformed on the second virtual screen to generate an image (step S24).

そして、ステップS23及びステップS24において生成された画像を投影画像として投影装置に送信し(ステップS25)、終了する。   Then, the image generated in step S23 and step S24 is transmitted to the projection apparatus as a projection image (step S25), and the process ends.

第三の実施の形態において、第一仮想カメラに対する第一仮想スクリーンの相対的な位置関係と、第二仮想カメラに対する第二仮想スクリーンの相対的な位置関係とが同一であり、第一仮想スクリーンと、第二仮想スクリーンとが前記所定の角度と同一の角度を有するものである。   In the third embodiment, the relative positional relationship of the first virtual screen with respect to the first virtual camera and the relative positional relationship of the second virtual screen with respect to the second virtual camera are the same, and the first virtual screen And the second virtual screen have the same angle as the predetermined angle.

第三の実施の形態の一側面として、2つ以上の投影面が所定の角度を有して設置され、第一仮想カメラに対する第一仮想スクリーンの相対的な位置関係と、第二仮想カメラに対する第二仮想スクリーンの相対的な位置関係とが同一であり、かつ、投影面同士が成す角度と同一の角度を、仮想スクリーン同士が有することにより、現実世界の投影面間の位置関係と、仮想世界の仮想カメラ間の位置関係とを対応させることができるため、複数の投影面に違和感なく仮想世界の様子を投影させることができる。   As one aspect of the third embodiment, two or more projection planes are installed at a predetermined angle, the relative positional relationship of the first virtual screen with respect to the first virtual camera, and the second virtual camera The relative positional relationship between the second virtual screens is the same, and the virtual screens have the same angle as the angle formed between the projection surfaces, so that the positional relationship between the real-world projection surfaces and the virtual Since the positional relationship between the virtual cameras in the world can be made to correspond, it is possible to project the state of the virtual world onto a plurality of projection surfaces without a sense of incongruity.

第三の実施の形態において、「投影」、「画像」、「投影面」、「投影装置」、「通信」、「接続」、「コンピュータ装置」、「特定点」、「位置を変更」、及び、「送信」とは、それぞれ第一の実施の形態において記載した内容と同一である。   In the third embodiment, “projection”, “image”, “projection plane”, “projection device”, “communication”, “connection”, “computer device”, “specific point”, “change position”, “Transmission” is the same as the contents described in the first embodiment.

第三の実施の形態において、「仮想3次元空間」、「仮想カメラ」、「仮想スクリーン」、「透視変換」、及び、「画像を生成」とは、それぞれ第二の実の施形態において記載した内容と同一である。   In the third embodiment, “virtual three-dimensional space”, “virtual camera”, “virtual screen”, “perspective transformation”, and “generate image” are described in the second embodiment. Is the same as

第三の実施の形態において、「設置」とは、例えば、投影面を備えつけることをいう。「角度」とは、例えば、設置された投影面同士が成す角度をいう。「相対的な位置関係」とは、例えば、2つの物体間の距離や高さの違い等により定められる関係をいう。   In the third embodiment, “installation” means, for example, providing a projection plane. “Angle” refers to, for example, an angle formed by installed projection surfaces. The “relative positional relationship” refers to a relationship determined by, for example, a distance between two objects or a difference in height.

[第四の実施の形態]
次に、本発明の第四の実施の形態の概要について説明をする。第四の実施の形態におけるコンピュータ装置の構成は、図3のブロック図に示されるものと同じ構成を採用することができる。さらに、第四の実施の形態におけるプログラム実行処理のフローは、図4のフローチャートに示されるものと同じ構成を採用することができる。
[Fourth embodiment]
Next, an outline of the fourth embodiment of the present invention will be described. The configuration of the computer apparatus according to the fourth embodiment can employ the same configuration as that shown in the block diagram of FIG. Furthermore, the same configuration as that shown in the flowchart of FIG. 4 can be adopted as the flow of the program execution process in the fourth embodiment.

第四の実施の形態において、仮想カメラ位置変更部212は、特定点に対する仮想カメラの相対的な位置関係を維持しながら、仮想カメラの位置を変更するものである。   In the fourth embodiment, the virtual camera position changing unit 212 changes the position of the virtual camera while maintaining the relative positional relationship of the virtual camera with respect to the specific point.

第四の実施の形態の一側面として、特定点に対する仮想カメラの相対的な位置関係を維持しながら、仮想カメラの位置を変更することにより、ユーザの操作指示やプログラムの指令により特定点が変更した場合に、特定点の位置に応じて、仮想カメラの位置を変更することができる。投影される画像が変化するため、ユーザは仮想世界内を移動しているような感覚を得ることができる。   As one aspect of the fourth embodiment, the specific point is changed by a user operation instruction or a program command by changing the position of the virtual camera while maintaining the relative positional relationship of the virtual camera with respect to the specific point. In this case, the position of the virtual camera can be changed according to the position of the specific point. Since the projected image changes, the user can feel as if he is moving in the virtual world.

第四の実施の形態において、「投影」、「画像」、「投影面」、「投影装置」、「通信」、「接続」、「コンピュータ装置」、「特定点」、「位置を変更」、及び、「送信」とは、それぞれ第一の実施の形態において記載した内容と同一である。   In the fourth embodiment, “projection”, “image”, “projection plane”, “projection device”, “communication”, “connection”, “computer device”, “specific point”, “change position”, “Transmission” is the same as the contents described in the first embodiment.

第四の実施の形態において、「仮想3次元空間」、「仮想カメラ」、「仮想スクリーン」、「透視変換」、及び、「画像を生成」とは、それぞれ第二の実施の形態において記載した内容と同一である。   In the fourth embodiment, “virtual three-dimensional space”, “virtual camera”, “virtual screen”, “perspective transformation”, and “generate image” are described in the second embodiment, respectively. It is the same as the contents.

[第五の実施の形態]
次に、本発明の第五の実施の形態の概要について説明をする。第五の実施の形態において、少なくとも2つ以上の投影面を有しており、一の投影面と、他の投影面とが、所定の角度を有して設置されるものである。
[Fifth embodiment]
Next, an outline of the fifth embodiment of the present invention will be described. In the fifth embodiment, at least two projection surfaces are provided, and one projection surface and another projection surface are installed with a predetermined angle.

次に、本発明の第五の実施の形態の概要について説明する。図7は、本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。図示するように、システムは、複数の光線照射装置1(光線照射装置1a、1b・・・1z)と、光線を照射し、かつ、投影装置から画像を投影する投影面2と、光線照射装置1から投影面2へ照射されて反射した光線を撮影する撮影装置3と、撮影した光線に関する情報に基づいて処理を行うコンピュータ装置4と、コンピュータ装置4により処理された画像を投影面2へ投影する投影装置5とから構成される。   Next, an outline of the fifth embodiment of the present invention will be described. FIG. 7 is a block diagram showing a system configuration corresponding to at least one of the embodiments of the present invention. As shown in the figure, the system includes a plurality of light beam irradiation devices 1 (light beam irradiation devices 1a, 1b,... 1z), a projection surface 2 that emits light beams and projects an image from the projection device, and a light beam irradiation device. An imaging device 3 that captures a reflected light beam irradiated from 1 to the projection surface 2, a computer device 4 that performs processing based on information about the captured light beam, and an image processed by the computer device 4 is projected onto the projection surface 2. Projecting device 5.

光線照射装置1は、他の装置等と接続されずに独立して使用され得るが、コンピュータ装置4と通信可能であってもよく、光線照射装置1に備えられた、ユーザの指示を入力する機構によりコンピュータ装置4へ入力信号を送信可能としてもよい。また、光線照射装置1は、不可視光を照射するものであってもよいし、可視光を照射できるものであってもよく、両方を照射するものであってもよい。   The light irradiation device 1 can be used independently without being connected to other devices or the like. However, the light irradiation device 1 may be communicable with the computer device 4 and inputs a user instruction provided in the light irradiation device 1. An input signal may be transmitted to the computer apparatus 4 by a mechanism. Moreover, the light irradiation apparatus 1 may irradiate invisible light, may irradiate visible light, or may irradiate both.

投影面2は、光線照射装置1から照射された光線を反射可能な材質であることが好ましい。撮影装置3は、コンピュータ装置4と有線又は無線の通信回線を介して接続されている。コンピュータ装置4は、撮影装置3及び投影装置5と有線又は無線の通信回線を介して接続されている。投影装置5は、通信回線を介してコンピュータ装置4と接続されている。撮影装置3、コンピュータ装置4、及び投影装置5は、互いに独立した機器であってもよいし、複合した単体の機器であってもよい。   The projection surface 2 is preferably made of a material that can reflect the light beam emitted from the light beam irradiation device 1. The imaging device 3 is connected to the computer device 4 via a wired or wireless communication line. The computer device 4 is connected to the photographing device 3 and the projection device 5 via a wired or wireless communication line. The projection device 5 is connected to the computer device 4 via a communication line. The imaging device 3, the computer device 4, and the projection device 5 may be devices independent of each other, or may be a single device that is combined.

本実施形態の一例として、光線照射装置1は、可視光線と不可視光線(例えば、赤外光線等)の二種類を照射可能な装置とすることができる。可視光線を照射することでユーザは、自身が照射している位置を容易に把握することができる。また、不可視光線を照射することで、投影される映像に影響されることなく、光線照射装置1を識別できる。   As an example of this embodiment, the light irradiation device 1 can be a device that can irradiate two types of light, visible light and invisible light (for example, infrared light). By irradiating visible light, the user can easily grasp the position irradiated by himself / herself. Further, by irradiating invisible light, the light irradiation device 1 can be identified without being affected by the projected image.

本実施形態の一例として、光線照射装置1の不可視光線として赤外光線を使用し、撮影装置3には赤外線センサカメラを用いることができる。ここで、プレイヤから発せられる赤外線が操作の邪魔をしないように、カメラにフィルタを取り付けることができる。人体が発する赤外線に相当する9〜10μm前後の波長をカットするためである。光線照射装置1の発する赤外光線の波長は、前述のカットする波長の範囲に含まれないように設定することが好ましい。   As an example of this embodiment, an infrared ray can be used as the invisible ray of the light irradiation device 1, and an infrared sensor camera can be used as the photographing device 3. Here, a filter can be attached to the camera so that the infrared rays emitted from the player do not interfere with the operation. This is because the wavelength around 9 to 10 μm corresponding to the infrared rays emitted by the human body is cut. It is preferable that the wavelength of the infrared ray emitted from the light irradiation device 1 is set so as not to be included in the above-described range of wavelengths to be cut.

図8は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置4は、制御部11、RAM(Random Access Memory)12、ストレージ部13、グラフィックス処理部14、ビデオメモリ15、通信インタフェース16、周辺機器接続インタフェース17、及び周辺機器18からなり、それぞれ内部バスにより接続されている。   FIG. 8 is a block diagram showing a configuration of a computer apparatus corresponding to at least one of the embodiments of the present invention. The computer device 4 includes a control unit 11, a RAM (Random Access Memory) 12, a storage unit 13, a graphics processing unit 14, a video memory 15, a communication interface 16, a peripheral device connection interface 17, and a peripheral device 18. Connected by bus.

制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)から構成される。制御部11は、ストレージ部13に格納されたプログラムを実行し、コンピュータ装置4の制御を行なう。RAM12は、制御部11のワークエリアである。ストレージ部13は、プログラムやデータを保存するための記憶領域である。   The control unit 11 includes a CPU (Central Processing Unit) and a ROM (Read Only Memory). The control unit 11 executes a program stored in the storage unit 13 and controls the computer device 4. The RAM 12 is a work area for the control unit 11. The storage unit 13 is a storage area for storing programs and data.

制御部11は、プログラム及びデータをRAM12から読み出して処理を行なう。制御部11は、RAM12にロードされたプログラム及びデータを処理することで、描画命令をグラフィックス処理部14に出力する。   The control unit 11 reads the program and data from the RAM 12 and performs processing. The control unit 11 processes the program and data loaded in the RAM 12 to output a drawing command to the graphics processing unit 14.

グラフィックス処理部14は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば30分の1秒である。グラフィックス処理部14は描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。   The graphics processing unit 14 draws one image for each frame. One frame time of an image is, for example, 1/30 second. The graphics processing unit 14 is responsible for a part of arithmetic processing related to drawing and has a role of distributing the load of the entire system.

周辺機器接続インタフェース17には周辺機器18(例えば、SDカード、撮影用カメラ等)が接続される。周辺機器18から読み込まれたデータはRAM12にロードされ、制御部11により演算処理が実行される。   A peripheral device 18 (for example, an SD card, a photographing camera, etc.) is connected to the peripheral device connection interface 17. Data read from the peripheral device 18 is loaded into the RAM 12 and arithmetic processing is executed by the control unit 11.

通信インタフェース16は、無線又は有線により通信回線6に接続が可能であり、通信回線6を介してデータを受信することが可能である。通信インタフェース16を介して受信したデータは、周辺機器18から読み込まれたデータと同様に、RAM12にロードされ、制御部11により演算処理が行われる。   The communication interface 16 can be connected to the communication line 6 wirelessly or by wire, and can receive data via the communication line 6. Data received via the communication interface 16 is loaded into the RAM 12 in the same manner as data read from the peripheral device 18, and arithmetic processing is performed by the control unit 11.

本発明の第五の実施の形態におけるプログラム実行処理について説明する。本発明の第五の実施の形態の一例として、投影装置を天井から吊るし、壁面及び床面に画像を投影することで、仮想世界を表現するゲームプログラムが挙げられる。ユーザは、壁面に投影された画像に対して、光線照射装置から光線を照射することで、入力操作を行うことができる。仮想世界には、ユーザが操作可能なキャラクタ等のオブジェクトが存在してもよい。   A program execution process according to the fifth embodiment of the present invention will be described. As an example of the fifth embodiment of the present invention, there is a game program that represents a virtual world by hanging a projection device from a ceiling and projecting an image on a wall surface and a floor surface. The user can perform an input operation by irradiating the image projected on the wall surface with a light beam from the light beam irradiation device. An object such as a character that can be operated by the user may exist in the virtual world.

図9は、本発明の実施の形態の少なくとも1つに対応する、投影装置から投影面に画像を投影した様子を表すブロック図である。図9(a)は、投影装置5から投影面2へ画像を投影した様子を、天井から床面に向かって正面視した場合の平面図である。   FIG. 9 is a block diagram showing a state in which an image is projected from the projection apparatus onto the projection plane, corresponding to at least one of the embodiments of the invention. FIG. 9A is a plan view of a state in which an image is projected from the projection device 5 onto the projection plane 2 when viewed from the ceiling toward the floor.

投影面2a〜2dは、略直方体状の空間を仕切るように、投影面が互いに垂直となるように設置されている。投影装置5は、仕切られた空間の略中央に天井から吊るされ、四方に設置された投影面2a〜2dへ画像を投影可能に設置されている。   The projection surfaces 2a to 2d are installed so that the projection surfaces are perpendicular to each other so as to partition a substantially rectangular parallelepiped space. The projection device 5 is hung from the ceiling in the approximate center of the partitioned space, and is installed so as to be able to project images onto the projection surfaces 2 a to 2 d installed in four directions.

図9(b)は、投影装置5から投影面2へ画像を投影した様子を、投影面2cから投影面2aに向かって正面視した場合の平面図である。投影装置5は、投影面2a〜2dだけでなく、床面7へも画像を投影する。すなわち、投影装置5は、五つの面に対して画像を投影するものである。   FIG. 9B is a plan view of a state in which an image is projected from the projection device 5 onto the projection plane 2 when viewed from the projection plane 2c toward the projection plane 2a. The projection device 5 projects an image not only on the projection surfaces 2 a to 2 d but also on the floor surface 7. That is, the projection device 5 projects an image on five surfaces.

次に、投影装置から投影する画像の内容について説明する。図10は、本発明の実施の形態の少なくとも1つに対応する、特定点、仮想カメラ、及び、仮想スクリーンの概念を表す図である。   Next, the contents of the image projected from the projection device will be described. FIG. 10 is a diagram illustrating the concept of a specific point, a virtual camera, and a virtual screen corresponding to at least one of the embodiments of the invention.

図10(a)は、仮想3次元空間内の仮想カメラによる撮影を説明した概念図である。図10(a)では、特定点52aを、仮想カメラ51a及び51aが異なる方向から撮影している。仮想カメラ51aにおいて撮影された画像は、仮想スクリーン50aにおいて透視変換される。また、仮想カメラ51aにおいて撮影された画像は、仮想スクリーン50aにおいて透視変換される。 FIG. 10A is a conceptual diagram illustrating photographing with a virtual camera in a virtual three-dimensional space. Figure 10 (a), the specific point 52a, the virtual camera 51a 1 and 51a 2 are taken from different directions. An image photographed by the virtual camera 51a 1 is perspective-transformed on the virtual screen 50a 1 . Further, the image photographed by the virtual camera 51a 2 is perspective-transformed on the virtual screen 50a 2 .

ここで、仮想カメラ51aと仮想スクリーン50aとの相対的な位置関係は、仮想カメラ51aと仮想スクリーン50aとの相対的な位置関係と同一であることが好ましい。また、投影面が互いに垂直となるように設置されているのと同様に、仮想スクリーン50aと仮想スクリーン50aとは、互いに垂直となるように設けられる。このように設計することで、複数の投影面に違和感なく仮想世界の様子を投影させることができる。 Here, the relative positional relationship between the virtual camera 51a 1 and the virtual screen 50a 1, is preferably the same as the relative positional relationship between the virtual camera 51a 2 and the virtual screen 50a 2. Moreover, just as the projection surface is placed so as to be perpendicular to each other, and the virtual screen 50a 1 and the virtual screen 50a 2, is provided so as to be perpendicular to each other. By designing in this way, the state of the virtual world can be projected onto a plurality of projection surfaces without a sense of incongruity.

次に、特定点の位置の変化について説明する。仮想カメラの位置は、特定点に対する相対的な位置関係を維持しながら変化することが好ましい。図10(b)は、特定点の位置が変化した場合に、仮想カメラ及び仮想スクリーンの位置の変化について説明した概念図である。   Next, a change in the position of the specific point will be described. The position of the virtual camera is preferably changed while maintaining a relative positional relationship with respect to the specific point. FIG. 10B is a conceptual diagram illustrating changes in the positions of the virtual camera and the virtual screen when the position of the specific point changes.

ユーザの入力操作又はプログラムの処理等により、特定点52aの位置が特定点52bの位置に変化した場合に、仮想カメラの位置は、特定点に対する相対的な位置関係を維持するものであるため、仮想カメラ51aの位置は、仮想カメラ51aの前方である、仮想カメラ51bの位置に変更される。同様に、仮想カメラ51aの位置は、仮想カメラ51aの右方である、仮想カメラ51bの位置に変更される。 When the position of the specific point 52a is changed to the position of the specific point 52b by the user's input operation or program processing, etc., the position of the virtual camera maintains the relative positional relationship with respect to the specific point. position of the virtual camera 51a 2 is a front of the virtual camera 51a 2, it is changed to the position of the virtual camera 51b 2. Similarly, the position of the virtual camera 51a 1 is right side of the virtual camera 51a 1, is changed to the position of the virtual camera 51b 1.

また、仮想カメラの位置の変更に伴って、仮想スクリーンの位置も変更される。仮想カメラ51aの位置が仮想カメラ51bの位置に変更されると、同一平面内で、仮想スクリーン50aの位置は、仮想スクリーン50bの位置に変更される。仮想カメラ51aの位置が仮想カメラ51bの位置に変更されると、同一平面内で、仮想スクリーン50aの位置は、仮想スクリーン50bの位置に変更される。 Further, the position of the virtual screen is also changed with the change of the position of the virtual camera. When the position of the virtual camera 51a 1 is changed to the position of the virtual camera 51b 1 , the position of the virtual screen 50a 1 is changed to the position of the virtual screen 50b 1 in the same plane. When the position of the virtual camera 51a 2 is changed to the position of the virtual camera 51b 2 , the position of the virtual screen 50a 2 is changed to the position of the virtual screen 50b 2 in the same plane.

なお、仮想スクリーンは、投影面2に対応するものであり、仮想スクリーン上に透視変換された画像は、投影装置5から投影される画像と同一である。   Note that the virtual screen corresponds to the projection plane 2, and the image that is perspective-transformed on the virtual screen is the same as the image projected from the projection device 5.

図11は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行画面の例である。図中には、正面の投影面2a、投影面2aに向かって右側の投影面2b、投影面2aに向かって左側の投影面2d、及び、床面7にそれぞれ投影装置(非図示)から画像が投影されている。また、各々の投影面2を撮影する撮影装置(非図示)が設置されている。   FIG. 11 is an example of a program execution screen corresponding to at least one of the embodiments of the present invention. In the figure, an image is projected from a projection device (not shown) to the front projection surface 2a, the right projection surface 2b toward the projection surface 2a, the left projection surface 2d toward the projection surface 2a, and the floor surface 7, respectively. Is projected. In addition, a photographing device (not shown) for photographing each projection plane 2 is installed.

また、ユーザは、一例として、投影装置の直下に立ち、四方の投影面に囲まれているものとする。画像には、図示するように、洞窟の通路の様子が表示されている。   Further, as an example, it is assumed that the user stands directly under the projection apparatus and is surrounded by four projection planes. In the image, the state of the cave passage is displayed as shown.

正面の投影面2aには、進行可能であるように、正面奥方向に通路が伸びている様子が表示されている。同様に、左側の投影面2dには、進行可能であるように、左側置く方向に通路が伸びている様子が表示されている。左側へ進行可能である様子は、正面の投影面2aの様子からもユーザは理解することができる。   The front projection surface 2a displays a state in which the passage extends in the depth direction of the front so that it can proceed. Similarly, the left projection surface 2d displays a state in which the passage extends in the direction to be placed on the left side so as to be able to proceed. The user can understand from the front projection surface 2a how he can proceed to the left side.

一方、右側の投影面2bには、進行不可能であるように、壁面が連なっている様子が表示されている。ユーザは、壁面を越えて進行できないことを視覚的に理解することができる。   On the other hand, the right projection surface 2b displays a state in which the wall surfaces are connected so as not to proceed. The user can visually understand that he cannot proceed beyond the wall.

通行可能か否かの判断を容易にするために、指示表示画像8を表示するようにしてもよい。例えば、図11において、正面の投影面2aに表示される指示表示画像8aは、ユーザが更に正面方向に進行可能であることを表すように、投影面に投影される。   The instruction display image 8 may be displayed in order to easily determine whether or not the vehicle can pass. For example, in FIG. 11, the instruction display image 8a displayed on the front projection surface 2a is projected onto the projection surface so as to indicate that the user can further proceed in the front direction.

同様に、左側の投影面2dに表示される指示表示画像8dは、ユーザが更に左側方向に進行可能であることを表すように、投影面に表示される。   Similarly, the instruction display image 8d displayed on the left projection surface 2d is displayed on the projection surface so as to indicate that the user can further proceed in the left direction.

ユーザは、光線照射装置1を用いて、進行する方向を指示することが可能である。光線照射装置1から投影面2に照射される光線を、撮影装置3が撮影し、撮影された情報に基づいて、コンピュータ装置4は、指示された方向を認識することができる。光線照射装置1を用いずに、ユーザの手や足等体の一部を撮影装置3が撮影することで、方向を指示するようにしてもよい。   The user can instruct the traveling direction using the light irradiation device 1. The imaging device 3 captures an image of the light beam irradiated from the light irradiation device 1 onto the projection plane 2, and the computer device 4 can recognize the instructed direction based on the captured information. Instead of using the light irradiation device 1, the photographing device 3 may photograph a part of the user's hand or foot so that the direction is indicated.

指示表示画像8aが表示されている場合に、光線照射装置により正面方向が指示されると、ユーザは正面方向に進行する。この場合に、仮想カメラの位置も正面方向に移動し、ユーザの位置に応じた画像が投影面に投影される。   When the instruction display image 8a is displayed and the front direction is instructed by the light beam irradiation device, the user proceeds in the front direction. In this case, the position of the virtual camera is also moved in the front direction, and an image corresponding to the position of the user is projected on the projection plane.

また、指示表示画像8dが表示されている場合に、光線照射装置により左方向が指示されると、ユーザは左方向に進行する。この場合に、仮想カメラの位置も左方向に移動し、ユーザの位置に応じた画像が投影面に投影される。   When the instruction display image 8d is displayed, if the left direction is instructed by the light beam irradiation device, the user proceeds in the left direction. In this case, the position of the virtual camera also moves to the left, and an image corresponding to the position of the user is projected on the projection plane.

ユーザが所定の条件を満たした場合には、プログラムを終了するように設計してもよい。所定の条件とは、例えば、仮想世界を探索完了した場合には、プログラムを終了するようにしてもよい。また、敵キャラクタと仮想戦闘を行うようなゲームのプログラムであれば、敵キャラクタに勝利する、又は、敗北すると、プログラムが終了するようにしてもよい。さらに、時間制限があるゲームのプログラムであれば、所定の時間に到達した場合にプログラムが終了するようにしてもよい。   The program may be designed to end when the user satisfies a predetermined condition. For example, when the search for the virtual world is completed, the program may be terminated. Moreover, if it is a program of a game which performs a virtual battle with an enemy character, you may make it complete | finish a program, if an enemy character is won or defeated. Further, if the game program has a time limit, the program may be terminated when a predetermined time is reached.

続いて、本発明の第五の実施の形態のプログラムの実行処理について説明する。図12は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。   Next, a program execution process according to the fifth embodiment of this invention will be described. FIG. 12 is a flowchart of the program execution process corresponding to at least one of the embodiments of the present invention.

最初に、プログラムが実行されると、コンピュータ装置4のグラフィックス処理部14において画像を生成する(ステップS101)。ゲームが終了するまで、後述するステップS102からステップS110までの処理を繰り返す。   First, when the program is executed, an image is generated in the graphics processing unit 14 of the computer device 4 (step S101). Until the game is over, the processes from step S102 to step S110 described later are repeated.

次に、通信インタフェース16を介して投影装置5へ画像を送信する(ステップS102)。ここで通信回線は有線でも無線でもよく、回線の種別は問わないが、コンピュータ装置4における処理を迅速に行うために、タイムラグの生じにくい高速通信が可能な設備が好ましい。   Next, an image is transmitted to the projection apparatus 5 via the communication interface 16 (step S102). Here, the communication line may be wired or wireless, and the type of the line is not limited. However, in order to perform the processing in the computer device 4 quickly, a facility capable of high-speed communication with little time lag is preferable.

投影装置5は、ステップS102においてコンピュータ装置4から送信された画像を受信すると(ステップS103)、投影面2に対して画像を投影する(ステップS104)。   When the projection device 5 receives the image transmitted from the computer device 4 in step S102 (step S103), the projection device 5 projects the image onto the projection surface 2 (step S104).

投影された画像に対して、ユーザが光線照射装置1を用いて光線を照射すると、撮影装置3は、照射された光線を撮影する(ステップS105)。撮影装置3は、投影面2に光線が照射されたか否か判定するために、所定の時間毎に投影面2の撮影を繰り返し実行する。   When the user irradiates the projected image with a light beam using the light beam irradiation device 1, the imaging device 3 captures the irradiated light beam (step S105). The imaging device 3 repeatedly executes imaging of the projection surface 2 at predetermined time intervals in order to determine whether or not the projection surface 2 has been irradiated with light rays.

撮影装置3は、ステップS105において撮影した光線に関する情報をコンピュータ装置4へ送信する(ステップS106)。コンピュータ装置4は、ステップS106において撮影装置3から送信された光線に関する情報を受信し(ステップS107)、光線に関する情報(以下、光線情報という)を操作入力情報としてプログラムの処理を進める。   The imaging device 3 transmits information regarding the light beam captured in step S105 to the computer device 4 (step S106). The computer device 4 receives the information regarding the light beam transmitted from the imaging device 3 in step S106 (step S107), and proceeds with the program processing using the information regarding the light beam (hereinafter referred to as light beam information) as operation input information.

光線情報を操作入力情報とするとは、例えば、光線が照射された方向に基づいて、照射された方向に入力がなされたとすることができる。あるいは、光線が照射された位置が、投影面2の所定の領域内である場合に、入力操作がなされたと判定されるように設計することも可能である。   When the light beam information is the operation input information, for example, it can be assumed that an input is made in the irradiated direction based on the direction in which the light beam is irradiated. Alternatively, it can be designed so that it is determined that an input operation has been performed when the position irradiated with the light beam is within a predetermined region of the projection surface 2.

また、ユーザは複数の光線照射装置1を用いることもできる。照射された光線を識別する方法としては、光線照射装置毎に、発せられる光線の形状、発せられる光線の色、あるいは、発せられる光線の点滅パターンを異なるように設計する等の方法がある。   The user can also use a plurality of light irradiation devices 1. As a method for identifying the irradiated light beam, there is a method of designing the shape of the emitted light beam, the color of the emitted light beam, or the blinking pattern of the emitted light beam to be different for each light irradiation device.

コンピュータ装置4は、ステップS107において受信した光線情報から操作入力情報を判定し、操作入力情報にしたがって、特定点の位置を変更する(ステップS108)。ここで、特定点の位置は、ユーザの操作するキャラクタ(以下、ユーザキャラクタという)の位置と対応するものであってもよい。   The computer apparatus 4 determines the operation input information from the light ray information received in step S107, and changes the position of the specific point according to the operation input information (step S108). Here, the position of the specific point may correspond to the position of a character operated by the user (hereinafter referred to as a user character).

ここで、特定点の位置の変更について、さらに説明する。特定点の位置がユーザキャラクタの位置と対応する場合は、例えば、ユーザの入力操作にしたがって、ユーザキャラクタの位置が変化し、投影画像を特定するための位置が変化するものである。一方、特定の位置がユーザキャラクタの位置と対応しない場合とは、例えば、ユーザの入力操作により、仮想カメラの視点が切り替わる場合をいう。   Here, the change of the position of the specific point will be further described. When the position of the specific point corresponds to the position of the user character, for example, the position of the user character changes according to the user's input operation, and the position for specifying the projection image changes. On the other hand, the case where the specific position does not correspond to the position of the user character means, for example, a case where the viewpoint of the virtual camera is switched by a user input operation.

さらに、コンピュータ装置4は、ステップS108において変更した特定点の位置に伴って、仮想カメラの位置を変更する(ステップS109)。仮想カメラの位置は、ユーザキャラクタの視点と対応する位置にあってもよいし、ユーザキャラクタを客観的に見ることが可能な位置にあってもよい。仮想カメラの位置と特定点の位置とが連動することにより、ユーザの操作指示にしたがって、仮想世界内を自由に移動することが可能となる。   Further, the computer apparatus 4 changes the position of the virtual camera in accordance with the position of the specific point changed in step S108 (step S109). The position of the virtual camera may be a position corresponding to the viewpoint of the user character, or may be a position where the user character can be objectively viewed. By linking the position of the virtual camera and the position of the specific point, it is possible to move freely in the virtual world in accordance with a user operation instruction.

コンピュータ装置4は、ステップS110において変更された仮想カメラの位置から、仮想スクリーン上に透視変換して、投影する画像を生成する(ステップS110)。このとき、ステップS108において変更された特定点の位置にしたがって、各々の投影面2に対応する仮想カメラの位置が変更される。   The computer device 4 performs perspective transformation on the virtual screen from the position of the virtual camera changed in step S110, and generates an image to be projected (step S110). At this time, the position of the virtual camera corresponding to each projection plane 2 is changed according to the position of the specific point changed in step S108.

例えば、図11において、正面の投影面2aに対して、キャラクタが2歩進む距離だけ前進するように仮想カメラの位置が変更された場合に、左側の投影面2dに投影される画像は、投影されていた位置から、正面の投影面2aの方向に、キャラクタ2歩分の距離だけ、正面の投影面2aの投影画像の前進する動きと連動するように変化して投影される。右側の投影面2bの投影画像や、床面7の投影画像も同様に、連動するように変化して投影される。   For example, in FIG. 11, when the position of the virtual camera is changed so that the character moves forward by a distance of two steps with respect to the front projection plane 2a, the image projected on the left projection plane 2d is projected. From the position that has been set, the projection is changed and projected in the direction of the front projection plane 2a by the distance of two steps of the character so as to be linked to the forward movement of the projection image on the front projection plane 2a. Similarly, the projection image on the right projection surface 2b and the projection image on the floor surface 7 are projected while being changed in conjunction with each other.

ステップS110において投影画像が生成されると、コンピュータ装置4は、生成された投影画像を投影装置5へ送信する(ステップS102)。   When the projection image is generated in step S110, the computer apparatus 4 transmits the generated projection image to the projection apparatus 5 (step S102).

第五の実施の形態を適用可能なゲームとして、例えば、複数のプレイヤが協力して進めるゲームや、一人用のゲームが想定され得る。ゲームの種類として、ロールプレイングゲーム(RPG)や、閉ざされた空間から脱出する脱出ゲーム、レーシングゲーム、アクションゲーム等が挙げられる。また、アーティストのライブ動画を用いて、ライブ会場にいるようなシミュレーションプログラムとすることもできる。   As a game to which the fifth embodiment can be applied, for example, a game that a plurality of players advance in cooperation or a game for one person can be assumed. Examples of the type of game include a role playing game (RPG), an escape game that escapes from a closed space, a racing game, and an action game. It is also possible to use a live video of an artist to create a simulation program like being in a live venue.

第五の実施の形態を実現するために用いるプログラムとしては、例えば、Flash(登録商標)のActionScriptや、JavaScript(登録商標)、あるいは、Unity等を用いることが好ましい。言語は、これに類する言語であってもよく、また、従来より存在するC言語等でも実現することは可能である。   As a program used to realize the fifth embodiment, for example, Flash (registered trademark) ActionScript, JavaScript (registered trademark), or Unity is preferably used. The language may be a language similar to this, and can also be realized by a conventional C language or the like.

第五の実施の形態では、光線照射装置1から可視光と不可視光とを照射可能としたが、不可視光だけ照射できるものとしてもよい。この場合は、例えば、不可視光を撮影した撮影装置3の撮影データにより、不可視光の照射位置がコンピュータ装置4に認識される。そして、投影装置5への投影画像を生成する際に、照準画像を合成した投影画像を生成するようにしてもよい。   In the fifth embodiment, visible light and invisible light can be emitted from the light irradiation device 1, but only invisible light may be emitted. In this case, for example, the irradiation position of the invisible light is recognized by the computer device 4 based on the photographing data of the photographing device 3 that photographed the invisible light. Then, when the projection image on the projection device 5 is generated, a projection image obtained by synthesizing the aiming image may be generated.

第五の実施の形態の一側面として、ユーザは、仮想世界内を移動しているような臨場感あふれる体験することができ、ユーザの趣向性を高めることができる。   As one aspect of the fifth embodiment, the user can experience a realistic experience as if he / she is moving in the virtual world, and can enhance the user's preference.

第五の実施の形態の一側面として、投影面に投影する投影画像を特定するための特定点の位置を変更し、特定点の位置に応じて仮想カメラの位置を変更することで、ユーザが仮想世界内を移動しているような感覚を与えることが可能となり、投影画像の臨場感を高め、かつ、ユーザの趣向性をより高めることができる。   As one aspect of the fifth embodiment, the user changes the position of a specific point for specifying a projection image to be projected on the projection plane, and changes the position of the virtual camera in accordance with the position of the specific point. This makes it possible to give a sense that the user is moving in the virtual world, can increase the sense of presence of the projected image, and can further enhance the user's preference.

第五の実施の形態の一側面として、2つ以上の投影面が所定の角度を有して設置され、第一仮想カメラに対する第一仮想スクリーンの相対的な位置関係と、第二仮想カメラに対する第二仮想スクリーンの相対的な位置関係とが同一であり、かつ、投影面同士が成す角度と同一の角度を、仮想スクリーン同士が有することにより、現実世界の投影面間の位置関係と、仮想世界の仮想カメラ間の位置関係を対応させることができるため、複数の投影面に違和感なく仮想世界の様子を投影させることができる。   As one aspect of the fifth embodiment, two or more projection planes are installed at a predetermined angle, the relative positional relationship of the first virtual screen with respect to the first virtual camera, and the second virtual camera The relative positional relationship between the second virtual screens is the same, and the virtual screens have the same angle as the angle formed between the projection surfaces, so that the positional relationship between the real-world projection surfaces and the virtual Since the positional relationship between virtual cameras in the world can be made to correspond, it is possible to project the state of the virtual world onto a plurality of projection surfaces without a sense of incongruity.

第五の実施の形態の一側面として、特定点に対する仮想カメラの相対的な位置関係を維持しながら、仮想カメラの位置を変更することにより、ユーザの操作指示により特定点を変更することで仮想カメラの位置を変更することができ、ユーザが仮想世界内を移動しているような感覚を与えることが可能となり、投影画像の臨場感を高め、かつ、ユーザの趣向性をより高めることができる。   As one aspect of the fifth embodiment, by changing the position of the virtual camera while maintaining the relative positional relationship of the virtual camera with respect to the specific point, the virtual point can be changed by changing the specific point according to a user operation instruction. The position of the camera can be changed, it is possible to give the user a sense of moving in the virtual world, the presence of the projected image can be enhanced, and the user's preference can be further enhanced .

第五の実施の形態の一側面として、ユーザの操作入力に応じて、仮想3次元空間内のユーザキャラクタを移動させることにより、ユーザは臨場感あふれる仮想世界を体験することができ、ユーザの趣向性をより高めることができる。   As one aspect of the fifth embodiment, by moving the user character in the virtual three-dimensional space according to the user's operation input, the user can experience a realistic virtual world, and the user's preference The sex can be increased.

第五の実施の形態の一側面として、撮影装置により撮影された光線を操作入力として受け付けることにより、撮影装置が光線を撮影可能な場所であれば、場所を問わず適用できるため、ユーザはより手軽に臨場感あふれる仮想世界を体験することができ、ユーザの趣向性をより高めることができる。   As one aspect of the fifth embodiment, by accepting a light beam photographed by the photographing device as an operation input, the user can apply any place as long as the photographing device can photograph the light beam. You can easily experience a virtual world full of realism and enhance your preferences.

第五の実施の形態の一側面として、光線が照射された投影面に対応する仮想スクリーンに垂直な方向に、特定点の位置を変更することにより、ユーザは直感的な操作でシステムを利用することができ、より手軽に臨場感あふれる仮想世界を体験することができる。   As one aspect of the fifth embodiment, by changing the position of a specific point in a direction perpendicular to the virtual screen corresponding to the projection plane irradiated with the light beam, the user uses the system with an intuitive operation. You can experience a virtual world full of realism more easily.

第五の実施の形態の一側面として、一の投影面と、他の投影面とが、互いに垂直となるように、すなわち、ユーザを囲むように、四方に投影面が設置され、さらに、床面にも画像が投影されることで、ユーザは臨場感あふれる仮想世界を体験することができ、ユーザの趣向性をより高めることができる。   As one aspect of the fifth embodiment, the projection planes are installed in four directions so that one projection plane and another projection plane are perpendicular to each other, that is, so as to surround the user. By projecting an image onto the surface, the user can experience a virtual world full of realism, and the user's preference can be further enhanced.

第五の実施の形態において、「投影」、「画像」、「投影面」、「投影装置」、「通信」、「接続」、「コンピュータ装置」、「特定点」、「位置を変更」、及び、「送信」とは、それぞれ第一の実施の形態において記載した内容と同一である。   In the fifth embodiment, “projection”, “image”, “projection plane”, “projection device”, “communication”, “connection”, “computer device”, “specific point”, “change position”, “Transmission” is the same as the contents described in the first embodiment.

第五の実施の形態において、「仮想3次元空間」、「仮想カメラ」、「仮想スクリーン」、「透視変換」、及び、「画像を生成」とは、それぞれ第二の実施の形態において記載した内容と同一である。   In the fifth embodiment, “virtual three-dimensional space”, “virtual camera”, “virtual screen”, “perspective transformation”, and “generate image” are described in the second embodiment, respectively. It is the same as the contents.

第五の実施の形態において、「操作入力」とは、例えば、投影された画像に対して行う入力をいう。「ユーザキャラクタ」とは、例えば、ユーザの代替として存在するキャラクタ、あるいは、キャラクタに従うサブキャラクタをいい、キャラクタと行動を共にするオブジェクトを含むものである。   In the fifth embodiment, “operation input” refers to input performed on a projected image, for example. The “user character” refers to, for example, a character that exists as a substitute for the user or a sub character that follows the character, and includes an object that acts together with the character.

第五の実施の形態において、「光線照射装置」とは、例えば、光線を照射する装置をいい、携帯可能なものや設置して使用するものを含む。「撮影装置」とは、例えば、ビデオカメラや赤外線センサカメラ等、撮影が可能な装置をいう。「ゲームプログラム」とは、例えば、ゲームを実行するためのプログラムをいい、コンピュータ装置において実行されるものをいう。   In the fifth embodiment, the “light irradiation device” refers to, for example, a device that emits light, and includes a portable device and a device that is installed and used. The “photographing device” refers to a device capable of photographing such as a video camera or an infrared sensor camera. The “game program” refers to a program for executing a game, for example, and is executed on a computer device.

[第六の実施の形態]
次に、本発明の第六の実施の形態の概要について説明をする。第六の実施の形態においては、第五の実施の形態と同様に、少なくとも2つ以上の投影面を有しており、一の投影面と、他の投影面とが、所定の角度を有して設置されるものである。
[Sixth embodiment]
Next, an outline of the sixth embodiment of the present invention will be described. In the sixth embodiment, as in the fifth embodiment, there are at least two projection surfaces, and one projection surface and another projection surface have a predetermined angle. It is installed.

次に、本発明の第六の実施の形態の概要について説明する。第六の実施の形態におけるシステムの構成は、図7のブロック図に示されるものと同じ構成を採用することができる。   Next, an outline of the sixth embodiment of the present invention will be described. The system configuration in the sixth embodiment can employ the same configuration as that shown in the block diagram of FIG.

ここで、光線照射装置1に、少なくとも加速度センサ又は光センサのいずれかを備えてもよい。また、センサにより計測された情報を、通信によりコンピュータ装置4へ送信できるようにしてもよい。   Here, the light irradiation device 1 may include at least either an acceleration sensor or an optical sensor. Further, information measured by the sensor may be transmitted to the computer apparatus 4 by communication.

あるいは、光線照射装置1に代えて、少なくとも加速度センサ又は光センサのいずれかを備える、VR(Virtual Reality:仮想現実)用のコントローラを用いてもよい。   Alternatively, instead of the light irradiation device 1, a VR (Virtual Reality) controller including at least one of an acceleration sensor and an optical sensor may be used.

本発明の第六の実施の形態におけるコンピュータ装置の構成は、図8のブロック図に示されるものと同じ構成を採用することができる。また、投影装置から投影面に画像を投影する概念は、図9のブロック図に示されるものと同じ概念を採用することができる。さらに、第六の実施の形態における特定点、仮想カメラ、及び、仮想スクリーンの概念は、図10の概念図に示されるものと同じ構成を採用することができる。   The configuration of the computer apparatus according to the sixth embodiment of the present invention can employ the same configuration as that shown in the block diagram of FIG. Moreover, the concept which projects an image on a projection surface from a projection apparatus can employ | adopt the same concept as what is shown by the block diagram of FIG. Furthermore, the concept of the specific point, the virtual camera, and the virtual screen in the sixth embodiment can adopt the same configuration as that shown in the conceptual diagram of FIG.

続いて、本発明の第六の実施の形態のプログラムの実行処理について説明する。第六の実施の形態におけるプログラム実行処理のフローは、図12のフローチャートに示されるものと同じ構成を採用することができる。   Subsequently, a program execution process according to the sixth embodiment of the present invention will be described. The flow of program execution processing in the sixth embodiment can employ the same configuration as that shown in the flowchart of FIG.

ところで、ステップS105において、光線照射装置1に代えて、入力装置として、例えば、加速度センサ又は光センサを備えたVR用コントローラを用いる場合には、撮影装置3による光線の撮影をすることなく、VR用コントローラのセンサにより計測された情報を操作入力情報として用いるようにしてもよい。この場合、ステップS106において、VR用コントローラによる操作入力情報が、通信により、コンピュータ装置4へ送信される。   By the way, in step S105, in place of the light beam irradiation device 1, for example, when a VR controller including an acceleration sensor or a light sensor is used as the input device, the VR is performed without photographing the light beam by the photographing device 3. Information measured by the sensor of the controller may be used as operation input information. In this case, in step S106, operation input information from the VR controller is transmitted to the computer apparatus 4 by communication.

例えば、ユーザが、正面方向から右側面方向へコントローラを動かしたことを加速度センサが検知した場合に、特定点を右側方向に進め、コントローラを上から下へ振り下ろしたことを検知した場合に、キャラクタを前方へ跳躍させる、あるいは、複数のコントローラを用いて、一方のコントローラの位置と、もう一方のコントローラの位置の相対的な位置関係に基づいて操作入力情報を決定するものであってもよい。   For example, when the acceleration sensor detects that the user has moved the controller from the front direction to the right side direction, when a specific point is advanced in the right direction and the controller is swung down from top to bottom, The character may be jumped forward, or a plurality of controllers may be used to determine the operation input information based on the relative positional relationship between the position of one controller and the position of the other controller. .

また、基準となる位置(以下、基準位置という)に対する、コントローラの相対的な位置関係に基づいて、操作入力情報を定めることも可能である。例えば、床面に投影された画像の中心点を基準位置とした場合に、基準位置と、画像が投影された床面と同一平面内におけるコントローラの位置との相対的な位置関係をもとに、操作入力情報を決定することができる。   Further, the operation input information can be determined based on a relative positional relationship of the controller with respect to a reference position (hereinafter referred to as a reference position). For example, when the center point of the image projected on the floor surface is used as the reference position, the relative position relationship between the reference position and the position of the controller in the same plane as the floor surface on which the image is projected is used. The operation input information can be determined.

例えば、基準位置から、床面と同一平面に投影したコントローラの位置へと向かう方向を入力方向とすることができる。また、コントローラの位置が所定の速度の範囲内で移動したことを検知した場合に、これらの移動情報を操作入力情報とすることができる。あるいは、例えば、床面と同一平面に投影したコントローラの位置と基準位置との距離を入力量としてもよい。   For example, the direction from the reference position to the position of the controller projected on the same plane as the floor can be set as the input direction. Further, when it is detected that the position of the controller has moved within a predetermined speed range, the movement information can be used as operation input information. Alternatively, for example, the distance between the position of the controller projected on the same plane as the floor and the reference position may be used as the input amount.

基準位置との相対的な位置関係は、平面の位置情報に限られるものではない。例えば、基準位置の高さに対して、コントローラの位置が相対的に低い場合に特定の操作入力情報が定められるようにしてもよい。より具体的には、撮影装置3により、ユーザの頭部の位置を基準位置として特定し、ユーザが手に持つコントローラとの位置関係に基づいて操作入力情報を定めることもできる。   The relative positional relationship with the reference position is not limited to plane position information. For example, specific operation input information may be determined when the position of the controller is relatively lower than the height of the reference position. More specifically, the photographing device 3 can specify the position of the user's head as the reference position, and can determine the operation input information based on the positional relationship with the controller held by the user.

第六の実施の形態の一側面として、コントローラの位置や動きに応じて操作入力が可能なコントローラを用いることによって、ユーザは臨場感あふれる仮想世界を体験することができ、ユーザの趣向性をより高めることができる。   As one aspect of the sixth embodiment, by using a controller that allows operation input according to the position and movement of the controller, the user can experience a virtual world full of realism, and the user's preference is more Can be increased.

[付記]
上で述べた実施の形態の説明は、下記の発明を、発明の属する分野における通常の知識を有する者がその実施をすることができるように記載した。
[Appendix]
The above description of the embodiments described the following invention so that a person having ordinary knowledge in the field to which the invention belongs can carry out the invention.

[1] 投影画像を投影面に投影する投影装置と通信又は接続が可能なコンピュータ装置において実行されるプログラムであって、
コンピュータ装置を、
投影面に投影する投影画像を特定するための特定点の位置を変更する特定点位置変更手段、
特定点の位置に応じた画像を、投影画像として投影装置に送信する送信手段
として機能させる、プログラム。
[1] A program executed in a computer device capable of communicating with or connecting to a projection device that projects a projection image onto a projection surface,
Computer equipment,
Specific point position changing means for changing the position of a specific point for specifying a projection image to be projected onto the projection plane;
A program that causes an image corresponding to the position of a specific point to function as a transmission unit that transmits an image as a projection image to a projection apparatus.

[2] コンピュータ装置を、さらに、
特定点の位置の変更に伴って仮想カメラの位置を変更する仮想カメラ位置変更手段、
仮想3次元空間を、仮想カメラから仮想スクリーン上に透視変換をして画像を生成する画像生成手段
として機能させ、
送信手段が、生成された画像を投影画像として投影装置に送信する、
[1]に記載のプログラム。
[2] A computer device,
Virtual camera position changing means for changing the position of the virtual camera in accordance with the change of the position of the specific point;
The virtual three-dimensional space is made to function as an image generation means for generating an image by performing perspective transformation from a virtual camera onto a virtual screen,
A transmission unit transmits the generated image to the projection apparatus as a projection image;
The program according to [1].

[3] 少なくとも2つ以上の投影面を有しており、
一の投影面と、他の投影面とが、所定の角度を有して設置されており、
画像生成手段が、
一の投影面に対応する第一仮想カメラから第一仮想スクリーン上に透視変換して画像を生成する第一画像生成手段と、
他の投影面に対応する第二仮想カメラから第二仮想スクリーン上に透視変換して画像を生成する第二画像生成手段とを含むものであり、
第一仮想カメラに対する第一仮想スクリーンの相対的な位置関係と、第二仮想カメラに対する第二仮想スクリーンの相対的な位置関係とが同一であり、
第一仮想スクリーンと、第二仮想スクリーンとが前記所定の角度と同一の角度を有する、
[2]に記載のプログラム。
[3] having at least two or more projection planes;
One projection plane and the other projection plane are installed with a predetermined angle,
Image generating means
First image generation means for generating a perspective image on the first virtual screen from a first virtual camera corresponding to one projection plane;
Including second image generation means for generating a perspective image on the second virtual screen from a second virtual camera corresponding to another projection plane,
The relative positional relationship of the first virtual screen with respect to the first virtual camera and the relative positional relationship of the second virtual screen with respect to the second virtual camera are the same,
The first virtual screen and the second virtual screen have the same angle as the predetermined angle;
The program according to [2].

[4] 仮想カメラ位置変更手段が、特定点に対する仮想カメラの相対的な位置関係を維持しながら、仮想カメラの位置を変更する、[2]に記載のプログラム。 [4] The program according to [2], wherein the virtual camera position changing unit changes the position of the virtual camera while maintaining a relative positional relationship of the virtual camera with respect to the specific point.

[5] コンピュータ装置を、さらに、
ユーザの操作入力を受け付ける操作入力受付手段、
受け付けた操作入力に応じて、仮想3次元空間内のユーザキャラクタが移動するキャラクタ移動手段
として機能させ、
特定点の位置がユーザキャラクタの位置と対応関係にある、
[1]〜[4]のいずれかに記載のプログラム。
[5] A computer apparatus,
Operation input accepting means for accepting user operation input,
In response to the received operation input, the user character in the virtual three-dimensional space functions as a character moving means that moves,
The position of the specific point is corresponding to the position of the user character.
The program according to any one of [1] to [4].

[6] 光線照射装置から投影面に照射された光線を撮影する撮影装置とを備え、
操作入力受付手段が、撮影装置により撮影された光線を操作入力として受け付ける、
[1]〜[5]のいずれかに記載のプログラム。
[6] A photographing device for photographing a light beam irradiated on the projection surface from the light beam irradiation device,
The operation input accepting unit accepts a light beam photographed by the photographing device as an operation input.
The program according to any one of [1] to [5].

[7] 少なくとも2つ以上の投影面を有しており、
特定点位置変更手段が、光線が照射された投影面に対応する仮想スクリーンに垂直な方向に、特定点の位置を変更する、
[6]に記載のプログラム。
[7] having at least two projection planes;
The specific point position changing means changes the position of the specific point in a direction perpendicular to the virtual screen corresponding to the projection plane irradiated with the light beam;
The program according to [6].

[8] 一の投影面と、他の投影面とが、互いに垂直となるように設置されている、請求[3]〜[7]のいずれかに記載のプログラム。 [8] The program according to any one of [3] to [7], wherein one projection plane and another projection plane are installed so as to be perpendicular to each other.

[9] 投影画像を投影面に投影する投影装置と通信又は接続が可能なコンピュータ装置であって、
投影面に投影する投影画像を特定するための特定点の位置を変更する特定点位置変更手段と、
特定点の位置に応じた画像を、投影画像として投影装置に送信する送信手段と
を備える、コンピュータ装置。
[9] A computer apparatus capable of communicating with or connecting to a projection apparatus that projects a projection image onto a projection plane,
Specific point position changing means for changing the position of a specific point for specifying a projection image to be projected on the projection plane;
A computer apparatus comprising: a transmission unit that transmits an image corresponding to the position of a specific point to a projection apparatus as a projection image.

[10] 投影画像を投影面に投影する投影装置と通信又は接続が可能なコンピュータ装置において実行されるプログラム実行方法であって、
投影面に投影する投影画像を特定するための特定点の位置を変更するステップと、
特定点の位置に応じた画像を、投影画像として投影装置に送信するステップと
を有するプログラム実行方法。
[10] A program execution method executed in a computer device capable of communication or connection with a projection device that projects a projection image onto a projection surface,
Changing the position of a specific point for specifying a projection image to be projected on the projection plane;
Transmitting the image corresponding to the position of the specific point to the projection apparatus as a projection image.

[11] 投影画像を投影面に投影する投影装置と、該投影装置と通信又は接続が可能なコンピュータ装置と
を備えたコンピュータシステムであって、
コンピュータ装置が、
投影面に投影する投影画像を特定するための特定点の位置を変更する特定点位置変更手段と、
特定点の位置に応じた画像を、投影画像として投影装置に送信する送信手段と
を備え、
投影装置が、
受信した画像を投影面に投影する投影手段
を備える、コンピュータシステム。
[11] A computer system including a projection device that projects a projection image onto a projection surface, and a computer device that can communicate with or connect to the projection device,
Computer equipment
Specific point position changing means for changing the position of a specific point for specifying a projection image to be projected on the projection plane;
A transmission unit that transmits an image according to the position of the specific point to the projection apparatus as a projection image;
Projector
A computer system comprising projection means for projecting a received image onto a projection plane.

1 光線照射装置
11 制御部
12 RAM
13 ストレージ部
14 グラフィックス処理部
15 ビデオメモリ
16 通信インタフェース
17 周辺機器接続インタフェース
18 周辺機器
2 投影面
3 撮影装置
4 コンピュータ装置
5 投影装置
6 通信回線
7 床面
8 指示表示画像
DESCRIPTION OF SYMBOLS 1 Light irradiation apparatus 11 Control part 12 RAM
DESCRIPTION OF SYMBOLS 13 Storage part 14 Graphics processing part 15 Video memory 16 Communication interface 17 Peripheral device connection interface 18 Peripheral device 2 Projection surface 3 Imaging device 4 Computer device 5 Projection device 6 Communication line 7 Floor surface 8 Instruction display image

Claims (8)

投影画像を投影面に投影する投影装置と通信又は接続が可能なコンピュータ装置において実行されるプログラムであって、
コンピュータ装置を、
投影面に投影する投影画像を特定するための特定点の位置を変更する特定点位置変更手段、
特定点の位置に応じた画像を、投影画像として投影装置に送信する送信手段
として機能させる、プログラム。
A program executed in a computer device capable of communicating with or connecting to a projection device that projects a projection image onto a projection surface,
Computer equipment,
Specific point position changing means for changing the position of a specific point for specifying a projection image to be projected onto the projection plane;
A program that causes an image corresponding to the position of a specific point to function as a transmission unit that transmits an image as a projection image to a projection apparatus.
コンピュータ装置を、さらに、
特定点の位置の変更に伴って仮想カメラの位置を変更する仮想カメラ位置変更手段、
仮想3次元空間を、仮想カメラから仮想スクリーン上に透視変換をして画像を生成する画像生成手段
として機能させ、
送信手段が、生成された画像を投影画像として投影装置に送信する、
請求項1に記載のプログラム。
A computer device,
Virtual camera position changing means for changing the position of the virtual camera in accordance with the change of the position of the specific point;
The virtual three-dimensional space is made to function as an image generation means for generating an image by performing perspective transformation from a virtual camera onto a virtual screen,
A transmission unit transmits the generated image to the projection apparatus as a projection image;
The program according to claim 1.
少なくとも2つ以上の投影面を有しており、
一の投影面と、他の投影面とが、所定の角度を有して設置されており、
画像生成手段が、
一の投影面に対応する第一仮想カメラから第一仮想スクリーン上に透視変換して画像を生成する第一画像生成手段と、
他の投影面に対応する第二仮想カメラから第二仮想スクリーン上に透視変換して画像を生成する第二画像生成手段とを含むものであり、
第一仮想カメラに対する第一仮想スクリーンの相対的な位置関係と、第二仮想カメラに対する第二仮想スクリーンの相対的な位置関係とが同一であり、
第一仮想スクリーンと、第二仮想スクリーンとが前記所定の角度と同一の角度を有する、
請求項2に記載のプログラム。
Having at least two or more projection planes;
One projection plane and the other projection plane are installed with a predetermined angle,
Image generating means
First image generation means for generating a perspective image on the first virtual screen from a first virtual camera corresponding to one projection plane;
Including second image generation means for generating a perspective image on the second virtual screen from a second virtual camera corresponding to another projection plane,
The relative positional relationship of the first virtual screen with respect to the first virtual camera and the relative positional relationship of the second virtual screen with respect to the second virtual camera are the same,
The first virtual screen and the second virtual screen have the same angle as the predetermined angle;
The program according to claim 2.
仮想カメラ位置変更手段が、特定点に対する仮想カメラの相対的な位置関係を維持しながら、仮想カメラの位置を変更する、請求項2に記載のプログラム。 The program according to claim 2, wherein the virtual camera position changing means changes the position of the virtual camera while maintaining a relative positional relationship of the virtual camera with respect to the specific point. コンピュータ装置を、さらに、
ユーザの操作入力を受け付ける操作入力受付手段、
受け付けた操作入力に応じて、仮想3次元空間内のユーザキャラクタが移動するキャラクタ移動手段
として機能させ、
特定点の位置がユーザキャラクタの位置と対応関係にある、
請求項1〜4のいずれかに記載のプログラム。
A computer device,
Operation input accepting means for accepting user operation input,
In response to the received operation input, the user character in the virtual three-dimensional space functions as a character moving means that moves,
The position of the specific point is corresponding to the position of the user character.
The program in any one of Claims 1-4.
投影画像を投影面に投影する投影装置と通信又は接続が可能なコンピュータ装置であって、
投影面に投影する投影画像を特定するための特定点の位置を変更する特定点位置変更手段と、
特定点の位置に応じた画像を、投影画像として投影装置に送信する送信手段と
を備える、コンピュータ装置。
A computer device capable of communicating with or connecting to a projection device that projects a projection image onto a projection surface,
Specific point position changing means for changing the position of a specific point for specifying a projection image to be projected on the projection plane;
A computer apparatus comprising: a transmission unit that transmits an image corresponding to the position of a specific point to a projection apparatus as a projection image.
投影画像を投影面に投影する投影装置と通信又は接続が可能なコンピュータ装置において実行されるプログラム実行方法であって、
投影面に投影する投影画像を特定するための特定点の位置を変更するステップと、
特定点の位置に応じた画像を、投影画像として投影装置に送信するステップと
を有するプログラム実行方法。
A program execution method executed in a computer device capable of communication or connection with a projection device that projects a projection image onto a projection surface,
Changing the position of a specific point for specifying a projection image to be projected on the projection plane;
Transmitting the image corresponding to the position of the specific point to the projection apparatus as a projection image.
投影画像を投影面に投影する投影装置と、該投影装置と通信又は接続が可能なコンピュータ装置と
を備えたコンピュータシステムであって、
コンピュータ装置が、
投影面に投影する投影画像を特定するための特定点の位置を変更する特定点位置変更手段と、
特定点の位置に応じた画像を、投影画像として投影装置に送信する送信手段と
を備え、
投影装置が、
受信した画像を投影面に投影する投影手段
を備える、コンピュータシステム。
A computer system comprising: a projection device that projects a projection image onto a projection surface; and a computer device that can communicate with or connect to the projection device,
Computer equipment
Specific point position changing means for changing the position of a specific point for specifying a projection image to be projected on the projection plane;
A transmission unit that transmits an image according to the position of the specific point to the projection apparatus as a projection image;
Projector
A computer system comprising projection means for projecting a received image onto a projection plane.
JP2016099388A 2016-05-18 2016-05-18 Program, computer device, program execution method, and computer system Pending JP2017208688A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016099388A JP2017208688A (en) 2016-05-18 2016-05-18 Program, computer device, program execution method, and computer system
CN201680085784.XA CN109155835B (en) 2016-05-18 2016-12-22 Recording medium, computer device, program execution method, and computer system
US16/302,407 US10960310B2 (en) 2016-05-18 2016-12-22 Program, computer apparatus, program execution method, and computer system
PCT/JP2016/088520 WO2017199460A1 (en) 2016-05-18 2016-12-22 Program, computer device, program execution method, and computer system
EP16902478.3A EP3461123A4 (en) 2016-05-18 2016-12-22 PROGRAM, COMPUTER DEVICE, PROGRAM EXECUTION METHOD, AND COMPUTER SYSTEM
TW105144124A TWI733731B (en) 2016-05-18 2016-12-30 Program, computer device, program execution method, and computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016099388A JP2017208688A (en) 2016-05-18 2016-05-18 Program, computer device, program execution method, and computer system

Publications (1)

Publication Number Publication Date
JP2017208688A true JP2017208688A (en) 2017-11-24

Family

ID=60325857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016099388A Pending JP2017208688A (en) 2016-05-18 2016-05-18 Program, computer device, program execution method, and computer system

Country Status (6)

Country Link
US (1) US10960310B2 (en)
EP (1) EP3461123A4 (en)
JP (1) JP2017208688A (en)
CN (1) CN109155835B (en)
TW (1) TWI733731B (en)
WO (1) WO2017199460A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023103017A (en) * 2022-01-13 2023-07-26 株式会社コーエーテクモゲームス GAME PROGRAM, GAME PROCESSING METHOD, INFORMATION PROCESSING APPARATUS

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114342363B (en) * 2019-08-28 2024-07-19 松下知识产权经营株式会社 Projection method, projection device and projection system
KR20220015000A (en) * 2020-07-30 2022-02-08 삼성전자주식회사 Projector apparatus and controlling method thereof
CN114020145B (en) * 2021-09-30 2024-12-20 联想(北京)有限公司 Method, device, equipment and readable storage medium for interacting with digital content

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04204842A (en) * 1990-11-30 1992-07-27 Toppan Printing Co Ltd Video simulation system
JPH09138637A (en) * 1995-11-13 1997-05-27 Mitsubishi Heavy Ind Ltd Simulated viewing device

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4024124B2 (en) * 2002-10-15 2007-12-19 株式会社タムラ製作所 POSITIONING DEVICE, METHOD, AND PROGRAM
JP3696216B2 (en) 2003-03-05 2005-09-14 株式会社スクウェア・エニックス Three-dimensional video game apparatus, control method of virtual camera in three-dimensional video game, program and recording medium
SG115546A1 (en) 2003-06-23 2005-10-28 Affineon Technologies Pte Ltd Computer input device tracking six degrees of freedom
JP4169201B2 (en) * 2004-04-21 2008-10-22 アルゼ株式会社 game machine
US8277316B2 (en) * 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
JP5436794B2 (en) 2008-04-04 2014-03-05 株式会社バンダイナムコゲームス Game video distribution system
JPWO2009141855A1 (en) * 2008-05-23 2011-09-22 新世代株式会社 INPUT SYSTEM, INPUT METHOD, COMPUTER PROGRAM, AND RECORDING MEDIUM
US9248376B2 (en) * 2008-09-30 2016-02-02 Nintendo Co., Ltd. Computer-readable storage medium having stored game program therein, and game apparatus
WO2010055737A1 (en) 2008-11-14 2010-05-20 株式会社ソニー・コンピュータエンタテインメント Operating device
US20100309391A1 (en) * 2009-06-03 2010-12-09 Honeywood Technologies, Llc Multi-source projection-type display
US8136949B2 (en) 2009-07-17 2012-03-20 Disney Enterprises, Inc. Interactive projected sandbox
JP5227910B2 (en) 2009-07-21 2013-07-03 株式会社コナミデジタルエンタテインメント Video game apparatus, game image display method, and game image display program
JP2011152297A (en) * 2010-01-27 2011-08-11 Namco Bandai Games Inc Program, information storage medium, game system
JP4951696B2 (en) 2010-07-15 2012-06-13 株式会社コナミデジタルエンタテインメント GAME SYSTEM, ITS CONTROL METHOD, AND COMPUTER PROGRAM
US20120156652A1 (en) * 2010-12-16 2012-06-21 Lockheed Martin Corporation Virtual shoot wall with 3d space and avatars reactive to user fire, motion, and gaze direction
KR101732001B1 (en) 2013-03-11 2017-05-24 가부시키가이샤 카프콤 Device and computer-readable recording medium for game
GB201305402D0 (en) * 2013-03-25 2013-05-08 Sony Comp Entertainment Europe Head mountable display
US9787958B2 (en) * 2014-09-17 2017-10-10 Pointcloud Media, LLC Tri-surface image projection system and method
CN105488839A (en) 2015-12-07 2016-04-13 上海市政工程设计研究总院(集团)有限公司 Interactive operation system for three-dimensional scene and operation method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04204842A (en) * 1990-11-30 1992-07-27 Toppan Printing Co Ltd Video simulation system
JPH09138637A (en) * 1995-11-13 1997-05-27 Mitsubishi Heavy Ind Ltd Simulated viewing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023103017A (en) * 2022-01-13 2023-07-26 株式会社コーエーテクモゲームス GAME PROGRAM, GAME PROCESSING METHOD, INFORMATION PROCESSING APPARATUS
JP7801137B2 (en) 2022-01-13 2026-01-16 株式会社コーエーテクモゲームス Game program, game processing method, and information processing device

Also Published As

Publication number Publication date
EP3461123A4 (en) 2019-12-04
CN109155835B (en) 2022-06-24
WO2017199460A1 (en) 2017-11-23
US20190275426A1 (en) 2019-09-12
EP3461123A1 (en) 2019-03-27
US10960310B2 (en) 2021-03-30
TWI733731B (en) 2021-07-21
CN109155835A (en) 2019-01-04
TW201741876A (en) 2017-12-01

Similar Documents

Publication Publication Date Title
TWI732194B (en) Method and system for eye tracking with prediction and late update to gpu for fast foveated rendering in an hmd environment and non-transitory computer-readable medium
US20230090043A1 (en) Virtual reality system and method
JP6355978B2 (en) Program and image generation apparatus
KR101691633B1 (en) Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
JP6276882B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP5800501B2 (en) Display control program, display control apparatus, display control system, and display control method
US10510189B2 (en) Information processing apparatus, information processing system, and information processing method
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
JP6629499B2 (en) Program and image generation device
JP6039594B2 (en) Information processing apparatus and information processing method
JP2021508262A (en) Interactive video game system
CN107656615A (en) The world is presented in a large amount of digital remotes simultaneously
US20180181367A1 (en) Method for providing virtual space, program and apparatus therefor
US10960310B2 (en) Program, computer apparatus, program execution method, and computer system
WO2016056317A1 (en) Information processor and information-processing method
JP2017000545A (en) Information processor, information processing system, information processing method, and information processing program
JP6738641B2 (en) Simulation control device and simulation control program
JP2014155564A (en) Game system and program
JP2019175322A (en) Simulation system and program
CN108563145A (en) Fire-fighting scene analogue system and method
JP2018190196A (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2017086542A (en) Image change system, method, and program
JP2012196286A (en) Game device, control method for game device, and program
JP6856572B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
US20130109451A1 (en) Game system, control method therefor, and a storage medium storing a computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180808

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180828

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20181026