JP7644869B1 - Information processing system, information processing method, and program - Google Patents
Information processing system, information processing method, and program Download PDFInfo
- Publication number
- JP7644869B1 JP7644869B1 JP2024199864A JP2024199864A JP7644869B1 JP 7644869 B1 JP7644869 B1 JP 7644869B1 JP 2024199864 A JP2024199864 A JP 2024199864A JP 2024199864 A JP2024199864 A JP 2024199864A JP 7644869 B1 JP7644869 B1 JP 7644869B1
- Authority
- JP
- Japan
- Prior art keywords
- virtual camera
- virtual
- gaze point
- boundary surface
- restriction area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】ゲームの仮想空間画像を生成するための情報処理システム、情報処理方法、及び、プログラムを提供する。
【解決手段】移動オブジェクトの移動制限領域が設定された仮想空間を生成する仮想空間設定部と、注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御部と、仮想カメラに基づいて仮想空間の画像を生成する画像生成部と、を備える情報処理システムである。仮想カメラ制御部は、注視点と仮想カメラとの間に、移動制限領域の境界面が介在するか否かを判定し、境界面が介在すると判定した場合に、注視点と仮想カメラとを結ぶ仮想線上の所定位置に仮想カメラを移動させる。
【選択図】図1
An information processing system, an information processing method, and a program for generating a virtual space image for a game are provided.
[Solution] An information processing system including a virtual space setting unit that generates a virtual space in which a movement restriction area for a moving object is set, a virtual camera control unit that controls a virtual camera from a third-person viewpoint in which a gaze point is off the center of the angle of view, and an image generation unit that generates an image of the virtual space based on the virtual camera. The virtual camera control unit determines whether or not a boundary surface of the movement restriction area is present between the gaze point and the virtual camera, and when it is determined that a boundary surface is present, moves the virtual camera to a predetermined position on a virtual line connecting the gaze point and the virtual camera.
[Selected Figure] Figure 1
Description
本開示は、ゲームにおける情報処理を実行する情報処理システム、情報処理装置、情報処理プログラム、及び、情報処理方法に関する。 This disclosure relates to an information processing system, an information processing device, an information processing program, and an information processing method that execute information processing in a game.
スマートフォン、ゲーム端末等といったプレイヤ端末で実行可能なゲームでは、ゲーム体験を形作るための技術として、仮想カメラによるレンダリング技術が用いられている。たとえば、特許文献1では、プレイヤ(ユーザ)の操作に応じてゲームの仮想空間内を移動するオブジェクトを仮想カメラで追従し、その仮想カメラの視野領域に基づく画像をレンダリングする技術が開示されている。 In games that can be executed on player terminals such as smartphones and game consoles, virtual camera rendering technology is used as a technique for creating the gaming experience. For example, Patent Document 1 discloses a technology in which a virtual camera tracks an object that moves within the virtual space of the game in response to the operation of the player (user), and an image is rendered based on the field of view of the virtual camera.
特許文献1では、仮想カメラとキャラクタとの間、及び、仮想カメラの周囲に仮想体を配置し、その仮想体と背景オブジェクトとの接触を検知することで、仮想カメラの動作を制御している。特許文献1で開示されている技術では、キャラクタの操作に関わる演算処理と並行して、常時、仮想カメラ周囲の仮想体の配置を算出し、カメラ専用の接触判定を実行する必要がある。 In Patent Document 1, virtual objects are placed between the virtual camera and the character and around the virtual camera, and the operation of the virtual camera is controlled by detecting contact between the virtual objects and background objects. The technology disclosed in Patent Document 1 requires that the placement of virtual objects around the virtual camera be constantly calculated and contact detection dedicated to the camera be performed in parallel with the calculation processing related to the operation of the character.
本開示における例示的な実施形態の目的は、ゲームの仮想空間画像を生成するための情報処理システム、情報処理方法、及び、プログラムを提供することである。 The objective of the exemplary embodiment of the present disclosure is to provide an information processing system, an information processing method, and a program for generating virtual space images for a game.
本開示の一様態に係わる情報処理システムは、
移動オブジェクトの移動制限領域が設定された仮想空間を生成する仮想空間設定部と、
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御部と、
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成部と、を備え、
前記仮想カメラ制御部は、
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定し、
前記境界面が介在すると判定した場合に、前記注視点と前記仮想カメラとを結ぶ仮想線上の所定位置に前記仮想カメラを移動させる。
An information processing system according to one embodiment of the present disclosure includes:
a virtual space setting unit that generates a virtual space in which a movement restriction area for a moving object is set;
a virtual camera control unit that controls a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
an image generating unit that generates an image of the virtual space based on the virtual camera,
The virtual camera control unit:
determining whether or not a boundary surface of the movement restriction area is interposed between the gaze point and the virtual camera;
When it is determined that the boundary surface is present, the virtual camera is moved to a predetermined position on a virtual line connecting the gaze point and the virtual camera.
情報処理システムが、上記の特徴を有することで、移動制限領域の境界周辺においても注視対象を画角に収めつつ、自然なカメラワークによるゲーム体験を実現することができる。その他、本願が開示する課題、及び、その解決手段については、本開示の実施形態の欄、及び、図面により明らかにされる。 By having the above-mentioned characteristics, the information processing system can realize a gaming experience with natural camerawork while keeping the gaze target within the field of view even around the boundary of the movement restriction area. Other problems and solutions disclosed in this application will be made clear in the section on embodiments of the present disclosure and in the drawings.
本開示の一実施形態に係わる情報処理システム10を、図面を参照しつつ説明する。なお、各図面は本実施形態を説明するための例示であり、各図面で示すシステム構成、ブロック図、及びフローチャートなどは、技術的に問題が生じない範囲内で改変したり、変更したりしてもよい。また、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付すことにより重複説明を省略する。 An information processing system 10 according to an embodiment of the present disclosure will be described with reference to the drawings. Note that each drawing is an example for explaining this embodiment, and the system configuration, block diagram, flow chart, etc. shown in each drawing may be modified or changed within the scope of not causing technical problems. Furthermore, in this specification and drawings, components having substantially the same functional configuration are given the same reference numerals to avoid redundant description.
<情報処理システムの概要>
本実施形態に係わる情報処理システム10は、インターネット網などのネットワークNを介して、ゲームに関する各種サービスを、プレイヤ3に提供するためのシステムである。
<Outline of the information processing system>
The information processing system 10 according to this embodiment is a system for providing various services relating to games to the player 3 via a network N such as the Internet.
情報処理システム10では、所定の注視点に追従して移動する仮想カメラを仮想空間(仮想の3次元空間)に配置して、当該仮想カメラに基づいて生成される仮想空間の画像(ゲーム画面)をプレイヤに提供する。情報処理システム10において提供するゲームは、例えば、各プレイヤ3が仮想空間に配置されたオブジェクトを操作して実行するゲームであってもよい。情報処理システム10で提供するゲームのカテゴリは特に限定されず、対戦ゲーム、アクションゲーム、RPG(ロールプレイングゲーム)、位置情報ゲーム、アドベンチャーゲーム、シミュレーションゲーム、ストラテジーゲーム、もしくは、スポーツゲーム等であってもよい。 In the information processing system 10, a virtual camera that moves while tracking a specific gaze point is placed in a virtual space (virtual three-dimensional space), and an image (game screen) of the virtual space generated based on the virtual camera is provided to the player. The game provided by the information processing system 10 may be, for example, a game in which each player 3 operates an object placed in the virtual space to execute the game. The category of the game provided by the information processing system 10 is not particularly limited, and may be a fighting game, an action game, an RPG (role-playing game), a location-based game, an adventure game, a simulation game, a strategy game, or a sports game, etc.
なお、情報処理システム10で提供するゲームには、例えば、所謂「インゲーム」と呼ばれる実際のゲームプレイに関する部分であって、オブジェクトを操作してゲームを進行させるための「ゲーム進行パート」だけでなく、所謂「アウトゲーム」と呼ばれる、ゲーム内のキャラクタ、アイテム等のオブジェクトをプレイヤに抽選で付与する所謂「ガチャ」などの「抽選パート」、ゲーム内で使用するキャラクタ等のオブジェクトを選択する「編成パート」、キャラクタ、アイテム等を強化する「強化パート」等を含んでいてもよい。 The game provided by the information processing system 10 may include, for example, not only the so-called "in-game" part related to actual gameplay, which is a "game progression part" for manipulating objects to progress through the game, but also the so-called "out-game" part, which is a "lottery part" such as a so-called "gacha" in which characters, items, and other objects in the game are given to the player by lottery, a "formation part" in which characters and other objects to be used in the game are selected, and a "strengthening part" in which characters, items, etc. are strengthened.
ここで、「オブジェクト」とは、プレイヤ3がゲーム内で使用する電子データの総称である。たとえば、キャラクタ、アバター、ゲーム内通貨などの消費媒体、武器、防具、その他のアイテムなどが、オブジェクトに該当する。情報処理システム10で提供するゲームでは、上記のオブジェクトの中でも、キャラクタ、もしくはアバターなどのインゲームにおいて仮想空間内を移動するオブジェクト(以下、移動オブジェクトと称する)が少なくとも1種使用される。この移動オブジェクトには、プレイヤ3による操作対象であるプレイヤキャラクタ、プレイヤキャラクタの味方のキャラクタ、敵キャラクタなどのノンプレイヤキャラクタ(NPC)などが含まれる。以下の説明では、説明を簡潔なものとするために、プレイヤ3がキャラクタを操作して実行するアクションゲームを想定して、情報処理システム10を説明するが、操作対象となるオブジェクトの種類、及び、ゲームのカテゴリは必ずしも限定されない。 Here, "object" is a general term for electronic data used by the player 3 in the game. For example, objects include characters, avatars, consumable media such as in-game currency, weapons, armor, and other items. In the game provided by the information processing system 10, at least one of the above objects, such as a character or an avatar, that moves in the virtual space in the game (hereinafter referred to as a moving object) is used. This moving object includes a player character that is the object of operation by the player 3, a character that is an ally of the player character, a non-player character (NPC) such as an enemy character, and the like. In the following description, for the sake of simplicity, the information processing system 10 will be described assuming an action game in which the player 3 operates a character, but the type of object to be operated and the category of the game are not necessarily limited.
図1に示すように、情報処理システム10は、少なくとも1つのサーバ20、及び、少なくとも1つのプレイヤ端末30、を主要構成として備える。これら主要構成は、ネットワークNを介して互いにアクセス可能に接続される。この情報処理システム10では、事業者1に配備されているサーバ20が、画像、動画、音声等によって構成されるゲームに関する情報処理を、プレイヤ3が保有するプレイヤ端末30に実行させることによって、プレイヤ端末30にゲームを提供する。なお、サーバ20とプレイヤ端末30とが一体に形成されていてもよく、その場合、プレイヤ端末30のみでゲームを実行可能である。 As shown in FIG. 1, the information processing system 10 mainly comprises at least one server 20 and at least one player terminal 30. These main components are connected to each other via a network N so that they can be accessed by each other. In this information processing system 10, the server 20 provided by the operator 1 provides the game to the player terminal 30 by having the player 3 carry out information processing related to the game, which is composed of images, videos, sounds, etc. Note that the server 20 and the player terminal 30 may be formed integrally, in which case the game can be executed by the player terminal 30 alone.
<サーバ20のハードウェア構成>
サーバ20は、ゲームサービスを運営及び管理する際に利用する情報処理装置であって、ゲームサービスを提供する事業者1に配備されている。情報処理装置としてのサーバ20は、たとえば、ワークステーションもしくはパーソナルコンピュータのような汎用コンピュータであってもよく、クラウドコンピューティング技術により理論的に構築されていてもよい。
<Hardware configuration of server 20>
The server 20 is an information processing device used to operate and manage a game service, and is deployed at the business operator 1 that provides the game service. The server 20 as an information processing device may be, for example, a general-purpose computer such as a workstation or a personal computer, or may be theoretically constructed using cloud computing technology.
サーバ20のハードウェア構成は、例えば、図2に示すように、プロセッサ21、メモリ22、ストレージ23、送受信部24、入出力部25、及び、バス26を有する。 The hardware configuration of the server 20 includes, for example, a processor 21, a memory 22, a storage 23, a transmission/reception unit 24, an input/output unit 25, and a bus 26, as shown in FIG. 2.
プロセッサ21は、サーバ20の動作を制御し、各要素間におけるデータの送受信の制御、及び、アプリケーションの実行に必要な情報処理等を行う演算装置である。例えば、プロセッサ21は、CPU(Central Processing Unit)、及び/又は、GPU(Graphics Processing Unit)であり、ストレージ23に格納されメモリ22に展開されたプログラム等を実行して、ゲームサービスの提供に必要な各種情報処理を実施する。 The processor 21 is a computing device that controls the operation of the server 20, controls the transmission and reception of data between each element, and performs information processing necessary for executing applications. For example, the processor 21 is a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit), and executes programs stored in the storage 23 and deployed in the memory 22 to perform various information processing necessary for providing game services.
メモリ22は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリ、HDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ22は、プロセッサ21による演算処理の作業領域等として使用される。また、メモリ22は、サーバ20の起動時に実行されるBIOS(Basic Input / Output System)、及び、各種設定情報等を格納していてもよい。 The memory 22 includes a main memory configured with a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary memory configured with a non-volatile storage device such as a flash memory or a HDD (Hard Disc Drive). The memory 22 is used as a working area for arithmetic processing by the processor 21. The memory 22 may also store a BIOS (Basic Input/Output System) that is executed when the server 20 is started, various setting information, etc.
ストレージ23は、プログラム、及び、各種の処理に用いられる情報等を格納する。メモリ22及びストレージ23は、後述の記憶部220を構成し、プロセッサ21は制御部200を構成し得る。 The storage 23 stores programs and information used for various processes. The memory 22 and the storage 23 constitute the storage unit 220 described below, and the processor 21 may constitute the control unit 200.
送受信部24は、サーバ20をネットワークNに接続するための通信インターフェースであり、プレイヤ端末30から送信される各種データを受信する受信部としての機能と、プロセッサ21の指令に応じて各種データをプレイヤ端末30に送信する送信部としての機能を有する。なお、送受信部24は、Bluetooth(登録商標)、BLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備していてもよい。 The transmission/reception unit 24 is a communication interface for connecting the server 20 to the network N, and has a function as a receiver that receives various data transmitted from the player terminal 30, and a function as a transmitter that transmits various data to the player terminal 30 in response to commands from the processor 21. The transmission/reception unit 24 may also be equipped with a short-range communication interface such as Bluetooth (registered trademark) or BLE (Bluetooth Low Energy).
入出力部25は、キーボード、マウス、マイク、タッチパネル、ディスプレイ、及び、スピーカなどの入出力機器が接続される入出力インターフェースである。 The input/output unit 25 is an input/output interface to which input/output devices such as a keyboard, mouse, microphone, touch panel, display, and speaker are connected.
バス26は、上記の各要素に共通に接続され、例えば、アドレス信号、データ信号、及び、各種制御信号などを伝達する。 Bus 26 is commonly connected to each of the above elements and transmits, for example, address signals, data signals, and various control signals.
<サーバ20のソフトウェア構成>
図3は、サーバ20のソフトウェア構成を説明するためのブロック図である。図3に示すように、サーバ20は、少なくとも制御部200、及び、記憶部220を備える。
<Software Configuration of Server 20>
3 is a block diagram for explaining the software configuration of the server 20. As shown in FIG.
サーバ20の記憶部220は、メモリ22及び/又はストレージ23によって実現される記憶領域であり、記憶部220には、制御部200による各種情報処理に必要なプログラム及び情報が格納されている。記憶部220は、記憶する情報の種類に応じて区画された複数の領域を有していてもよい。例えば、記憶部220は、ゲーム情報記憶部221、及び、プレイヤ情報記憶部222を有していてもよい。 The storage unit 220 of the server 20 is a storage area realized by the memory 22 and/or the storage 23, and the storage unit 220 stores programs and information necessary for various information processing by the control unit 200. The storage unit 220 may have multiple areas partitioned according to the type of information to be stored. For example, the storage unit 220 may have a game information storage unit 221 and a player information storage unit 222.
ゲーム情報記憶部221は、ゲームに関する基本的な情報を記憶し、格納している。ゲーム情報記憶部221に格納されるゲームに関する基本的な情報は、ゲームの種類に応じて適宜構成され、特に限定されない。例えば、ゲーム情報記憶部221には、ゲーム単位ごとの設定情報、キャラクタなどのオブジェクトの設定情報、ゲームの仮想空間に関連する設定情報、イベント情報などの情報が格納されていてもよい。なお、「ゲーム単位」とは、ゲームの一つのまとまりを意味し、「ゲーム単位」は、クエスト、イベント、ミッション、コース、ストーリー、シナリオ、チャプター、ダンジョン、ステージ、戦闘、及び、対戦などの用語で換言することができる。複数のステージが設定されたゲームの場合、ゲーム単位ごとの設定情報は、各ゲーム単位を識別するための識別子であるステージIDと、該ステージIDに紐づけられた、ステージ名、敵キャラクタ情報、及び、消費スタミナ情報などを含んでいてもよい。 The game information storage unit 221 stores and stores basic information about the game. The basic information about the game stored in the game information storage unit 221 is appropriately configured according to the type of game, and is not particularly limited. For example, the game information storage unit 221 may store information such as setting information for each game unit, setting information for objects such as characters, setting information related to the virtual space of the game, and event information. Note that a "game unit" means a single unit of a game, and a "game unit" can be expressed in terms such as quest, event, mission, course, story, scenario, chapter, dungeon, stage, battle, and match. In the case of a game in which multiple stages are set, the setting information for each game unit may include a stage ID, which is an identifier for identifying each game unit, and a stage name, enemy character information, and consumed stamina information linked to the stage ID.
仮想空間に関連する設定情報は、仮想空間を生成するための各種情報を含む。例えば、仮想空間の設定情報として、背景オブジェクト(例えば、地面、建物などの構造物、壁、床、天井、柱、その他、障害物などの空間を構築するオブジェクト、画像を表示するスクリーンオブジェクトなど)、ノンプレイヤキャラクタ(NPC)、プレイヤが操作するプレイヤキャラクタなどの各種オブジェクトを仮想空間上に生成するための情報、各種オブジェクトの仮想空間における配置を示す情報、仮想カメラを仮想空間上に配置するための情報、及び、移動オブジェクトの移動制限領域を規定するための設定情報、などが含まれていてもよい。複数のステージが設定されたゲームの場合、仮想空間に関連する設定情報は、各ゲーム単位を識別するための識別子であるステージIDと対応付けられてゲーム情報記憶部221に格納されていてもよい。 The setting information related to the virtual space includes various information for generating the virtual space. For example, the setting information of the virtual space may include information for generating various objects in the virtual space, such as background objects (e.g., ground, structures such as buildings, walls, floors, ceilings, pillars, and other objects that construct the space such as obstacles, screen objects that display images, etc.), non-player characters (NPCs), and player characters operated by players, information indicating the placement of various objects in the virtual space, information for placing a virtual camera in the virtual space, and setting information for defining a movement restriction area for a moving object. In the case of a game in which multiple stages are set, the setting information related to the virtual space may be stored in the game information storage unit 221 in association with a stage ID that is an identifier for identifying each game unit.
ゲーム情報記憶部221に格納されるオブジェクトの設定情報には、キャラクタに関する情報、武器及び防具などのアイテムに関する情報、ゲーム内通貨などのゲーム内でプレイヤ3により消費される消費媒体に関する情報、などが含まれていてもよい。キャラクタに関する情報には、プレイヤ3が取得可能でプレイヤ3による操作対象となるキャラクタに関する情報、ゲーム内でプレイヤ3の仲間となるキャラクタに関する情報、及び、プレイヤ3と対戦する敵キャラクタに関する情報などが含まれていてもよい。 The object setting information stored in the game information storage unit 221 may include information about characters, information about items such as weapons and armor, information about consumable media consumed by player 3 in the game, such as in-game currency, etc. Information about characters may include information about characters that player 3 can acquire and control, information about characters that will be allies of player 3 in the game, and information about enemy characters that will compete against player 3.
オブジェクトの設定情報には、キャラクタなどの各オブジェクトを一意に識別するための識別子としてID(以下、オブジェクトIDと称する)が付与され、各オブジェクトに関する様々な情報が、当該オブジェクトIDと対応付けて記憶されていてもよい。例えば、オブジェクトの名称、画像データ、及び、獲得方法などがオブジェクトIDと対応付けられて記憶されていてもよい。また、キャラクタ又はアイテムなどのプレイヤ3の操作対象となり得るオブジェクトについては、属性、パラメータ(たとえば、攻撃力、防御力、体力、攻撃の命中率、クリティカルの発生率、及び、回避成功率などの初期値、及び/又は、最大値など)、スキルに関する情報(例えば、通常スキル、必殺技、連携スキルなど)、オブジェクトの特徴に関するテキストデータなどの情報がオブジェクトIDに対応づけられた情報に含まれていてもよく、その他に、入手方法、および入手確率などの各キャラクタに関連付けられた各種情報が含まれていてもよい。 The object setting information may be assigned an ID (hereinafter referred to as an object ID) as an identifier for uniquely identifying each object such as a character, and various information regarding each object may be stored in association with the object ID. For example, the name, image data, and acquisition method of the object may be stored in association with the object ID. In addition, for objects that may be operated by the player 3 such as characters or items, the information associated with the object ID may include information such as attributes, parameters (for example, initial values and/or maximum values of attack power, defense power, stamina, attack hit rate, critical occurrence rate, and evasion success rate), information regarding skills (for example, normal skills, special moves, combo skills, etc.), and text data regarding the characteristics of the object, and may also include various information associated with each character, such as the acquisition method and acquisition probability.
本実施形態で例示するアクションゲームの場合、移動オブジェクトの設定情報には、当該移動オブジェクトに関連するイベントシーンの設定情報が含まれていてもよく、一の移動オブジェクトに対して、複数のイベントシーンに関する設定情報が対応付けられていてもよい。移動オブジェクトに関連するイベントシーンとは、例えば、ゲーム進行中に実行される必殺技、連携スキルなどの特殊なアクションが挙げられる。イベントシーンの設定情報には、特殊アクションのアニメーションデータなどのようにイベントシーン実行時の演出に関する設定情報、イベントシーン実行時の仮想カメラの設定情報などが含まれていてもよい。イベントシーン実行時の仮想カメラの設定情報は、例えば、イベントのアニメーションデータに対応して、仮想カメラの軌道を示す時系列データを含んでいてもよい。より具体的に、時系列データには、イベントシーンのアクションの各フレームに対応づけられた、移動オブジェクトを基準とする仮想カメラの理想の相対座標、当該理想の相対座標の適用率、その他カメラパラメータなどが含まれていてもよい。 In the case of the action game exemplified in this embodiment, the setting information of a moving object may include setting information of an event scene related to the moving object, and setting information related to multiple event scenes may be associated with one moving object. An event scene related to a moving object may be, for example, a special action such as a special move or a combo skill executed during the game. The setting information of an event scene may include setting information related to the performance when the event scene is executed, such as animation data of a special action, and setting information of a virtual camera when the event scene is executed. The setting information of the virtual camera when the event scene is executed may include, for example, time series data indicating the trajectory of the virtual camera corresponding to the animation data of the event. More specifically, the time series data may include the ideal relative coordinates of the virtual camera based on the moving object, the application rate of the ideal relative coordinates, other camera parameters, and the like, associated with each frame of the action of the event scene.
プレイヤ情報記憶部222は、ゲームサービスを利用する各プレイヤ3に関連付けられた情報を記憶する。たとえば、プレイヤ情報記憶部222には、ユーザID(各プレイヤ3を特定するための識別子)と、ユーザIDと紐づけられた、アカウント情報、プレイ履歴情報、所有オブジェクトの情報などが含まれていてもよい。 The player information storage unit 222 stores information associated with each player 3 who uses the game service. For example, the player information storage unit 222 may include a user ID (an identifier for identifying each player 3), and account information, play history information, information on owned objects, and the like that are linked to the user ID.
アカウント情報は、例えば、ユーザ名、ゲームサービスへの登録日、ユーザのランク(プレイヤランク)、及び、その他、プレイヤ3の操作によって登録された各種設定情報などを含んでいてもよい。プレイ履歴情報は、例えば、ログイン日時、ログイン回数、総プレイ時間、ゲーム単位ごとの実行回数、各ゲーム単位をクリアした際のデータ、キャラクタ及び/又はアイテムなどのオブジェクトの獲得履歴、課金額、課金回数、及び、抽選の実行回数などのデータを含んでいてもよい。 The account information may include, for example, the user name, the date of registration to the game service, the user's rank (player rank), and various other setting information registered by the operation of the player 3. The play history information may include, for example, data such as the login date and time, the number of logins, the total play time, the number of times each game unit has been played, data when each game unit has been cleared, the history of acquisition of objects such as characters and/or items, the amount charged, the number of times charged, and the number of times a lottery has been played.
所有オブジェクトの情報は、各プレイヤ3が所有しているオブジェクトに関する情報であって、各オブジェクトの取得履歴、各オブジェクトの保有数を示す保有数情報、各オブジェクトの使用状況を示す情報(例;使用回数、選択確率のような使用度合いを示す情報、お気に入り登録の有無を示す情報など)、各オブジェクトの特性を示す情報(例;攻撃力、防御力、体力、スピード等の各種のパラメータの現在値/最大値、レアリティ、属性などの分類情報、使用可能なスキルに関する情報など)などが含まれてもよい。所有オブジェクトのデータ構成は、オブジェクトの種類に応じて適宜設定されればよく、特に限定されない。 The information on owned objects is information about objects owned by each player 3, and may include the acquisition history of each object, owned number information indicating the number of each object owned, information indicating the usage status of each object (e.g., information indicating the degree of use such as the number of times used and the probability of selection, information indicating whether or not an object has been registered as a favorite, etc.), information indicating the characteristics of each object (e.g., current/maximum values of various parameters such as attack power, defense power, stamina, speed, etc., classification information such as rarity and attributes, information on usable skills, etc.). The data configuration of owned objects may be set appropriately depending on the type of object, and is not particularly limited.
なお、ゲームサービスで提供されるゲームが、複数のキャラクタなどのオブジェクトの組み合わせからなるデッキを使用する場合には、当該デッキを特定するデッキ情報がプレイヤ情報記憶部222に記憶されていてもよい。また、ゲームサービスが、他のプレイヤ3との間でフレンド関係を構築する機能を備えている場合には、他のプレイヤ3との間で構築済みのフレンド関係を示す情報、及び、未成立状態のフレンド申請に関する情報などを含むフレンド関連情報が、プレイヤ情報記憶部222に記憶されていてもよい。 Note that, if a game provided by the game service uses a deck consisting of a combination of objects such as multiple characters, deck information identifying the deck may be stored in the player information storage unit 222. Also, if the game service has a function for building a friend relationship with another player 3, friend-related information including information indicating a friend relationship already built with another player 3 and information regarding a friend request that is not yet established may be stored in the player information storage unit 222.
サーバ20の制御部200は、情報処理システム10で提供するゲームを制御する構成要素であって、ゲームサービスの提供に必要な各種情報処理を行う機能を有する。制御部200の該機能は、プロセッサ21がストレージ23に格納されている情報、及び、アプリケーションプログラムを読み出し、メモリ22の作業領域で各種プログラムを実行することで実現される。制御部200は、実行する情報処理の種類に応じた複数の機能部を有する。例えば、制御部200は、機能部として、仮想空間設定部210、ゲーム処理部211、イベント実行部212、仮想カメラ制御部213、画像生成部214、及び、操作情報受信部215を備えていてもよい。 The control unit 200 of the server 20 is a component that controls the games provided by the information processing system 10, and has the function of performing various information processing required for providing game services. The function of the control unit 200 is realized by the processor 21 reading out information and application programs stored in the storage 23, and executing various programs in the working area of the memory 22. The control unit 200 has multiple functional units according to the type of information processing to be performed. For example, the control unit 200 may have, as functional units, a virtual space setting unit 210, a game processing unit 211, an event execution unit 212, a virtual camera control unit 213, an image generation unit 214, and an operation information receiving unit 215.
仮想空間設定部210は、移動オブジェクトの移動制限領域が設定された仮想空間を生成する。例えば、仮想空間設定部210は、ゲーム情報記憶部221に格納されている仮想空間に関連する設定情報を読み出し、当該設定情報に基づいて、背景オブジェクト、NPCなどのオブジェクトを配置した3次元の仮想空間を構築する。 The virtual space setting unit 210 generates a virtual space in which a movement restriction area for moving objects is set. For example, the virtual space setting unit 210 reads setting information related to the virtual space stored in the game information storage unit 221, and creates a three-dimensional virtual space in which objects such as background objects and NPCs are arranged based on the setting information.
また、仮想空間設定部210は、オブジェクトの配置情報などの仮想空間の設定情報に基づいて、キャラクタなどの移動オブジェクトが進入できない移動制限領域を、仮想空間内に設定する。移動制限領域には、例えば、柱、壁、障害物などの背景オブジェクトが配置されている領域が含まれ、その他、ゲーム画面上で視覚化されない仮想面で区画される領域が含まれてもよい。背景オブジェクトが配置された領域に設定される移動制限領域の場合、当該移動制限領域の境界面(移動オブジェクトの進入可能領域と移動制限領域とを区分けする境界面)は、仮想空間に配置されている背景オブジェクトの外面により規定されてもよいし、背景オブジェクトの外面よりも外側(背景オブジェクトの中心に向かう方向が内側、中心から外面に向かう方向が外側)に位置するように設定されていてもよく、後者の方が好ましい。 The virtual space setting unit 210 also sets a movement restriction area in the virtual space into which moving objects such as characters cannot enter, based on virtual space setting information such as object placement information. The movement restriction area includes, for example, an area in which background objects such as pillars, walls, and obstacles are placed, and may also include areas partitioned by virtual surfaces that are not visualized on the game screen. In the case of a movement restriction area set in an area in which a background object is placed, the boundary surface of the movement restriction area (the boundary surface that divides the area in which the moving object can enter from the movement restriction area) may be determined by the outer surface of the background object placed in the virtual space, or may be set to be located outside the outer surface of the background object (the direction toward the center of the background object is the inner side, and the direction from the center toward the outer surface is the outer side), with the latter being preferred.
図5は、仮想空間における移動制限領域を説明するための図である。図5に示すように、仮想空間設定部210は、背景オブジェクトの外面から法線方向に向かって所定距離Xだけ離れた位置で、背景オブジェクトの外面に沿うように移動制限領域の境界面(図5において一点鎖線で示す境界面BS1)を設定してもよい。図5に示す所定距離Xは、予め設定しておけばよく、背景オブジェクトの種類に応じて異なる値を設定してもよい。なお、移動制限領域の設定方法は、このような方法に限定されず、所定の確率で移動オブジェクトの動作が障害物の影響を受ける可能性のある領域を移動制限領域として設定してもよいし、仮想空間で実行するゲームの設定に基づいて、移動オブジェクトの進入を禁止する領域を規定してもよい。 Figure 5 is a diagram for explaining a movement restriction area in a virtual space. As shown in Figure 5, the virtual space setting unit 210 may set the boundary surface of the movement restriction area (boundary surface BS1 shown by a dashed line in Figure 5) to follow the outer surface of the background object at a position a predetermined distance X away from the outer surface of the background object in the normal direction. The predetermined distance X shown in Figure 5 may be set in advance, and may be set to a different value depending on the type of background object. Note that the method of setting the movement restriction area is not limited to this method, and an area in which the movement of a moving object may be affected by an obstacle with a predetermined probability may be set as the movement restriction area, or an area into which the entry of a moving object is prohibited may be specified based on the settings of a game to be executed in the virtual space.
上記のように移動オブジェクトの移動制限領域を設定した場合、仮想カメラは、境界面BS1から移動制限領域内に向かって許容距離Wだけ入り込んだ位置まで進入可能としてもよい。つまり、仮想空間における仮想カメラの進入可能領域は、移動オブジェクトの移動可能領域よりも広く設定されていてもよい。許容距離Wは、仮想空間の設定情報に含まれる設定値として予め登録しておけばよく、許容距離Wの値は、特に限定されない。許容距離Wは、例えば、仮想カメラが背景オブジェクト内に埋まり込むことが無いように、所定距離Xよりも小さい値で設定されていてもよい。図5では、仮想カメラの進入制限領域の境界面(進入可能領域と進入制限領域との境界面)を二点鎖線BS2で示しているが、仮想カメラの進入制限領域は、仮想空間上で区画されている必要はなく、移動オブジェクトの移動制限領域を基準に相対的に特定されてもよい。 When the movement restriction area of the moving object is set as described above, the virtual camera may be allowed to enter the movement restriction area from the boundary surface BS1 to a position that is an allowable distance W away. In other words, the accessible area of the virtual camera in the virtual space may be set to be wider than the movable area of the moving object. The allowable distance W may be registered in advance as a setting value included in the setting information of the virtual space, and the value of the allowable distance W is not particularly limited. For example, the allowable distance W may be set to a value smaller than a predetermined distance X so that the virtual camera does not become embedded in the background object. In FIG. 5, the boundary surface of the virtual camera's access restriction area (the boundary surface between the accessible area and the access restriction area) is shown by the two-dot chain line BS2, but the access restriction area of the virtual camera does not need to be partitioned in the virtual space, and may be relatively specified based on the movement restriction area of the moving object.
ゲーム処理部211は、情報処理システム10で提供するゲームの基本的な情報処理を実行する。例えば、ゲーム処理部211は、プレイヤ3の入力操作に基づいて、仮想空間内における移動オブジェクトの移動を制御する処理を実行する。ゲーム処理部211は、必殺技、連携スキルなどの特殊アクションのような、移動オブジェクトに関連するイベントシーンを実行するイベント実行部212の機能を備えていてもよい。イベント実行部212は、プレイヤ3による入力操作に基づいてイベントシーンを実行してもよいし、予め設定された所定の条件が満たされたことをトリガーとしてイベントシーンを実行してもよい。イベントシーンを実行する場合、イベント実行部212は、移動オブジェクトの特殊アクションに対応付けられているアニメーションデータをゲーム情報記憶部221から読み出し、当該アニメーションデータに基づいて移動オブジェクトに特殊アクションを実行させる。 The game processing unit 211 executes basic information processing of the game provided by the information processing system 10. For example, the game processing unit 211 executes processing to control the movement of a moving object in a virtual space based on an input operation by the player 3. The game processing unit 211 may have the function of an event execution unit 212 that executes an event scene related to a moving object, such as a special action such as a special move or a combo skill. The event execution unit 212 may execute an event scene based on an input operation by the player 3, or may execute an event scene triggered by a preset condition being satisfied. When executing an event scene, the event execution unit 212 reads out animation data associated with the special action of the moving object from the game information storage unit 221, and causes the moving object to execute the special action based on the animation data.
ゲーム処理部211は、その他、ゲームの進行、ゲームモードの切替などのインゲームに関する各種情報処理を実行する。また、ゲーム処理部211は、抽選、育成、強化、合成、及び、ゲーム実行前の準備などのアウトゲームに関する各種情報処理を実行してもよい。 The game processing unit 211 also performs various information processing related to in-game activities, such as game progress and switching of game modes. The game processing unit 211 may also perform various information processing related to out-of-game activities, such as lotteries, training, strengthening, synthesis, and preparation before game execution.
仮想カメラ制御部213は、注視点が画角の中心から外れている三人称視点で、仮想空間内における仮想カメラの動作を制御する。ここで「三人称視点」とは、プレイヤキャラクタの目線ではなく、プレイヤキャラクタから外れた位置を仮想カメラの視点とする視野で仮想空間の画像を生成することを意味する。また、「注視点」とは、仮想カメラの画角内に収める被写体に対応するポイントであって、仮想カメラを追従させる基準点である。注視点に対応する被写体は、例えば、プレイヤキャラクタ、味方キャラクタ、敵キャラクタ、仮想空間上に存在するその他オブジェクトなどであってもよく、ゲームの進行に応じて注視点とする被写体を切り替えてもよい。 The virtual camera control unit 213 controls the operation of the virtual camera in the virtual space from a third-person perspective where the gaze point is off-center of the angle of view. Here, "third-person perspective" means that an image of the virtual space is generated from a field of view where the gaze point of the virtual camera is a position off-center from the player character, rather than the line of sight of the player character. Also, the "gazing point" is a point corresponding to a subject that is contained within the angle of view of the virtual camera, and is a reference point for tracking the virtual camera. The subject corresponding to the gaze point may be, for example, the player character, an ally character, an enemy character, or other objects that exist in the virtual space, and the subject that is the gaze point may be switched depending on the progress of the game.
図6は、三人称視点で生成される仮想空間画像の一例を示す模式図である。図6では、プレイヤ3が操作するプレイヤキャラクタを被写体とする場合を例示しており、この場合、仮想カメラ制御部213は、プレイヤキャラクタの位置に基づいて、プレイヤキャラクタの中心点などの所定位置に注視点を設定する。図6で示す画像では、戦闘シーンにおけるプレイヤキャラクタの動き、敵キャラクタなどのプレイヤキャラクタ周辺に存在するキャラクタの動きを仮想カメラで捉えられるように、注視点が画角の中心から外れた位置に表示されている。仮想カメラ制御部213は、図6に示すような三人称視点の画像を生成するように、仮想カメラの位置座標、注視点座標、焦点方向(向き)、姿勢パラメータ、投影パラメータ、移動制御パラメータなどの各種カメラパラメータを制御する。プレイヤ3による入力操作に応じてプレイヤキャラクタが移動、戦闘などのアクションを行う場合には、仮想カメラ制御部213は、プレイヤ3から入力された操作情報に基づき、仮想カメラと注視点との距離が所定の範囲となるように、各種カメラパラメータを制御すればよい。このようにして、プレイヤキャラクタなどの移動オブジェクトに追従するように仮想カメラの移動を制御する。なお、仮想カメラと注視点との距離は、プレイヤ3によるズームもしくはズームアウトの要求に応じて変動させてもよい。 FIG. 6 is a schematic diagram showing an example of a virtual space image generated from a third-person perspective. FIG. 6 illustrates an example in which the player character operated by the player 3 is the subject. In this case, the virtual camera control unit 213 sets the gaze point at a predetermined position, such as the center point of the player character, based on the position of the player character. In the image shown in FIG. 6, the gaze point is displayed at a position that is off the center of the angle of view so that the virtual camera can capture the movement of the player character in a battle scene and the movement of characters around the player character, such as enemy characters. The virtual camera control unit 213 controls various camera parameters such as the position coordinates, gaze point coordinates, focal direction (direction), attitude parameters, projection parameters, and movement control parameters of the virtual camera so as to generate an image from a third-person perspective as shown in FIG. 6. When the player character moves or performs an action such as a battle in response to an input operation by the player 3, the virtual camera control unit 213 may control various camera parameters so that the distance between the virtual camera and the gaze point is within a predetermined range based on the operation information input by the player 3. In this way, the movement of the virtual camera is controlled so as to follow a moving object such as the player character. The distance between the virtual camera and the gaze point may be changed in response to a request from player 3 to zoom in or out.
なお、仮想カメラ制御部213は、仮想カメラを示すオブジェクトを仮想空間上に実際に配置して当該オブジェクトを介して各種カメラパラメータを制御してもよい。若しくは、仮想カメラは、カメラのオブジェクトを仮想空間上に配置することなく、各種カメラパラメータ(例えば、位置座標、注視点座標、焦点方向、投影パラメータ、姿勢パラメータ、移動制御パラメータ)により理論的に構築されていてもよい。 The virtual camera control unit 213 may actually place an object representing the virtual camera in the virtual space and control various camera parameters via the object. Alternatively, the virtual camera may be theoretically constructed using various camera parameters (e.g., position coordinates, gaze point coordinates, focal direction, projection parameters, attitude parameters, movement control parameters) without placing a camera object in the virtual space.
仮想カメラ制御部213は、ゲーム実行中の仮想空間を示す画像(ゲーム画像)の乱れを防止する観点で、仮想空間内の所定領域(例えば、障害物が介在する領域、所定の確率で障害物が存在する可能性のある領域など)を回避するように仮想カメラの位置を補正する処理を実行する。例えば、プレイヤ3による入力操作に基づいて、プレイヤキャラクタを図7(a)に示す位置Aから図7(b)に示す位置Bへ移動させる場合、仮想カメラもプレイヤキャラクタの移動に追従して位置A′から位置B′へ移動させることとなる。仮想カメラの移動予定先である位置B′は、背景オブジェクトの内部に該当する。仮想空間内に配置される背景オブジェクトは、図7(a)(b)に示すように立体形状の3Dオブジェクトとして存在する場合(例えば、木などの物体として表現される仮想オブジェクト)もあれば、表面側のみがゲーム画面で視覚化され裏面側はゲーム画面に表示されないオブジェクトとして存在する場合(例えば、仮想空間を区画する壁面など)もある。背景オブジェクトなどの障害物が前者もしくは後者のいずれの場合であっても、仮想カメラを位置B′に示すような位置に移動させると、位置B′周辺に障害物が介在することで、ゲーム画面に提示すべきではない画像(例えば、背景オブジェクトの断片が不自然に表示されるなど)、その他、プレイヤに違和感を与える可能性のある画像などが表示されてしまう恐れがある。そのため、背景オブジェクトなど障害物が介在する可能性のある領域を回避するように仮想カメラの移動を補正する必要がある。 The virtual camera control unit 213 executes a process of correcting the position of the virtual camera so as to avoid a predetermined area in the virtual space (for example, an area where an obstacle is present, an area where an obstacle may exist with a predetermined probability, etc.) in order to prevent the image (game image) showing the virtual space during game execution from being distorted. For example, when the player character is moved from position A shown in FIG. 7(a) to position B shown in FIG. 7(b) based on the input operation by the player 3, the virtual camera is also moved from position A' to position B' following the movement of the player character. Position B', which is the planned destination of the virtual camera, corresponds to the inside of the background object. The background object arranged in the virtual space may exist as a three-dimensional 3D object as shown in FIG. 7(a) and (b) (for example, a virtual object represented as an object such as a tree), or may exist as an object whose only the front side is visualized on the game screen and whose back side is not displayed on the game screen (for example, a wall surface that divides the virtual space). Regardless of whether the obstacle, such as a background object, is the former or latter case, if the virtual camera is moved to a position such as that shown in position B', the presence of an obstacle near position B' may result in images that should not be presented on the game screen (for example, fragments of a background object may be displayed unnaturally) or other images that may give the player a sense of discomfort. For this reason, it is necessary to correct the movement of the virtual camera so as to avoid areas where obstacles such as background objects may be present.
仮想カメラの回避動作を制御するために、仮想カメラ制御部213は、仮想空間でのゲームの進行中、注視点と仮想カメラとの間に、移動オブジェクトの移動制限領域の境界面が介在するか否か(すなわち、注視点を遮蔽する障害物が存在するか否か)を判定する。例えば、仮想カメラから注視点に向かう方向の注視ベクトルが移動制限領域の境界面と交差するか否かを判定することで、注視点ベクトル上で介在する障害物の有無を判断してもよい。当該判定を行う際の仮想カメラの位置(すなわち、注視ベクトルの基点)は、移動予定先である位置B′であってもよいし、移動前の位置A′であってもよい。 To control the avoidance operation of the virtual camera, the virtual camera control unit 213 determines whether or not the boundary surface of the movement restriction area of the moving object is between the gaze point and the virtual camera while the game is progressing in the virtual space (i.e., whether or not there is an obstacle blocking the gaze point). For example, the presence or absence of an obstacle on the gaze point vector may be determined by determining whether or not the gaze vector in the direction from the virtual camera to the gaze point intersects with the boundary surface of the movement restriction area. The position of the virtual camera when making this determination (i.e., the base point of the gaze vector) may be position B', which is the planned movement destination, or may be position A' before the movement.
仮想カメラ制御部213は、注視点と仮想カメラとの間に移動制限領域の境界面が介在すると判定した場合に、注視点と仮想カメラとを結ぶ仮想線上の所定位置に仮想カメラを移動させる。例えば、図7に示す例の場合、位置A′から位置B′ではなく、位置A′から位置C′へ仮想カメラを移動させて背景オブジェクトを回避する。回避位置に対応する「仮想線上の所定位置(すなわち仮想カメラの移動先座標)」は、注視ベクトルと移動制限領域の境界面との交点としてもよいが、仮想線上における注視点から境界面までの第1距離よりも注視点から離れた位置とすることが好ましい。 When the virtual camera control unit 213 determines that the boundary surface of the movement restriction area is between the gaze point and the virtual camera, it moves the virtual camera to a predetermined position on a virtual line connecting the gaze point and the virtual camera. For example, in the example shown in FIG. 7, the virtual camera is moved from position A' to position C', not from position A' to position B', to avoid the background object. The "predetermined position on the virtual line (i.e., the destination coordinates of the virtual camera)" corresponding to the avoidance position may be the intersection of the gaze vector and the boundary surface of the movement restriction area, but is preferably a position farther away from the gaze point than the first distance from the gaze point to the boundary surface on the virtual line.
具体的に、仮想カメラ制御部213は、移動オブジェクトの移動制限領域の境界面を基準として、仮想カメラの相対的な進入制限領域を特定することが好ましく、特定される相対的な進入制限領域に応じて仮想カメラの移動先座標を決定することが好ましい。例えば、図8に示すように、仮想カメラの進入制限領域の境界面は、移動オブジェクトの移動制限領域の境界面BS1を基準に、当該境界面BS1から許容距離Wだけ離れた仮想面BS2として相対的に算出できる。この場合、仮想カメラ制御部213は、注視ベクトルと、仮想面BS2との交点(位置C′)を、仮想カメラの移動先座標として決定する。注視ベクトルと仮想面BS2との交点座標(移動先座標)は例えば以下の手順で特定してもよい。 Specifically, it is preferable for the virtual camera control unit 213 to specify the relative entry restriction area of the virtual camera based on the boundary surface of the movement restriction area of the moving object, and to determine the destination coordinates of the virtual camera according to the specified relative entry restriction area. For example, as shown in FIG. 8, the boundary surface of the entry restriction area of the virtual camera can be calculated relatively as a virtual surface BS2 that is separated from the boundary surface BS1 of the movement restriction area of the moving object by an allowable distance W, based on the boundary surface BS1. In this case, the virtual camera control unit 213 determines the intersection (position C') of the gaze vector and the virtual surface BS2 as the destination coordinates of the virtual camera. The intersection coordinates (destination coordinates) of the gaze vector and the virtual surface BS2 may be specified, for example, by the following procedure.
仮想カメラ制御部216は、注視点から、境界面BS1と注視ベクトル(すなわち注視点と仮想カメラとを結ぶ仮想線)との交点Pまでの距離d(第1距離)を算出し、当該距離d、及び、境界面BS1から法線方向に向かって予め設定された許容距離Wに基づき、注視ベクトル上で仮想カメラを移動させる補正距離Dを決定する。距離dは、仮想空間における注視点の位置、仮想カメラの位置B′(補正前の位置であって、例えば、注視点の移動量に応じて算出される移動予定位置)、仮想空間に設定された移動オブジェクトの移動制限領域に関する情報などに基づいて算出すればよい。補正距離Dは、以下の(1)式に基づいて算出することができる。
補正距離Dの算出後、仮想カメラ制御部213は、仮想カメラの座標を、位置B′から注視ベクトルの方向に補正距離D、移動させて、仮想カメラの位置を補正する。 After calculating the correction distance D, the virtual camera control unit 213 moves the coordinates of the virtual camera by the correction distance D from position B' in the direction of the gaze vector, thereby correcting the position of the virtual camera.
障害物を回避する場合、仮想カメラを正面方向(仮想カメラから画角の中心に向かう方向であって、図8で「×」印で示す方法)に補正することが一般的である。しかしながら、図6で例示したような三人称視点で仮想カメラを制御している場合には、仮想カメラを正面方向に補正すると、注視点が画角から外れてしまう恐れがある。本実施形態では、障害物を回避する際に、画角の中心に向かう方向とは異なる注視ベクトルの方向で仮想カメラの位置を補正することで、注視点を画角から外すことなく、障害物を回避できる。この際、注視点の移動オブジェクトは、画角内で画角の中心からずれた位置に配置されることから、注視点の移動オブジェクトだけでなくその周辺の戦闘シーンを捉えられる画角でズームする、違和感のない画像を生成でき、ゲームへの没入感をプレイヤ3に提供することができる。また、移動オブジェクトの移動制限領域を基準に相対的に仮想カメラの進入制限領域を定めることで、仮想カメラ周辺にカメラ専用の接触判定範囲を設ける必要がなく、効率的に仮想カメラの移動を制御できる。 When avoiding an obstacle, it is common to correct the virtual camera to the front direction (the direction from the virtual camera toward the center of the angle of view, as indicated by the "x" mark in FIG. 8). However, when controlling the virtual camera from a third-person perspective as illustrated in FIG. 6, correcting the virtual camera to the front direction may cause the gaze point to move out of the angle of view. In this embodiment, when avoiding an obstacle, the position of the virtual camera is corrected in the direction of a gaze vector different from the direction toward the center of the angle of view, so that the obstacle can be avoided without moving the gaze point out of the angle of view. At this time, since the moving object of the gaze point is positioned at a position shifted from the center of the angle of view within the angle of view, a natural image can be generated by zooming in with an angle of view that can capture not only the moving object of the gaze point but also the surrounding battle scene, and a sense of immersion in the game can be provided to the player 3. In addition, by determining the entry restriction area of the virtual camera relatively based on the movement restriction area of the moving object, it is not necessary to provide a contact judgment range dedicated to the camera around the virtual camera, and the movement of the virtual camera can be efficiently controlled.
前述のイベント実行部212が移動オブジェクトに関連するイベントシーンを実行する場合、仮想カメラ制御部213は、イベントシーンの実行時に、移動オブジェクトの周囲を旋回するような軌跡で仮想カメラを移動させる処理を実行してもよい。特殊アクションなどのイベントの発動に合わせて、仮想カメラを、イベントの発動主体である移動オブジェクトの周囲を旋回させることで(例えば、図9に示すように円弧を描くように旋回させる)、臨場感のある画像を生成でき、プレイヤ3のゲームへの没入感を高める効果が期待できる。 When the aforementioned event execution unit 212 executes an event scene related to a moving object, the virtual camera control unit 213 may execute processing to move the virtual camera in a trajectory that revolves around the moving object during execution of the event scene. By revolving the virtual camera around the moving object that triggered the event in accordance with the triggering of an event such as a special action (for example, revolving in an arc as shown in FIG. 9), a realistic image can be generated, which is expected to have the effect of increasing the player 3's sense of immersion in the game.
移動オブジェクトの周囲を旋回するようなカメラワークを実現するために、仮想カメラ制御部213は、ゲーム情報記憶部221から仮想カメラの設定情報を読み出し、イベントシーンのアニメーションデータのフレームごとに設定されている、移動オブジェクトを基準とする仮想カメラの理想の相対座標、及び、当該理想の相対座標の適用率に基づいて、イベントシーンにおける仮想カメラの移動を制御する。「適用率」とは、対象のフレームが再生されるよりも前の時間における仮想カメラの座標を、対象フレームに設定された理想の相対座標で補間する際の補間係数(ブレンド係数)を示す設定値である。例えば、仮想カメラ制御部213は、イベントシーンを実行する前の仮想カメラの座標(仮想空間における3次元座標)を保存し、この保存された座標(前の時間における座標)と、理想の相対座標とを、対象フレームに設定された適用率でブレンド(混合)することで、対象フレームでの仮想カメラの座標を決定してもよい。適用率が高いほど仮想カメラは理想の相対座標に近い位置に配置される。 In order to realize camerawork that revolves around a moving object, the virtual camera control unit 213 reads out the setting information of the virtual camera from the game information storage unit 221, and controls the movement of the virtual camera in the event scene based on the ideal relative coordinates of the virtual camera with respect to the moving object, which are set for each frame of the animation data of the event scene, and the application rate of the ideal relative coordinates. The "application rate" is a setting value indicating an interpolation coefficient (blend coefficient) when the coordinates of the virtual camera at a time before the target frame is played are interpolated with the ideal relative coordinates set in the target frame. For example, the virtual camera control unit 213 may store the coordinates of the virtual camera before the execution of the event scene (three-dimensional coordinates in virtual space), and blend (mix) the stored coordinates (coordinates at the previous time) with the ideal relative coordinates at the application rate set in the target frame to determine the coordinates of the virtual camera in the target frame. The higher the application rate, the closer the virtual camera is to the ideal relative coordinates.
仮想カメラの座標を補間する処理では、仮想カメラ制御部213は、フレームごとに設定された適用率に基づいて、仮想カメラの注視点、回転、及び、距離のそれぞれに対して線形補間を行い、イベントシーンの各フレームにおける仮想カメラの位置、及び、姿勢などの各種パラメータを設定してもよい。イベントシーンで上記のような処理で仮想カメラを制御することで、仮想カメラが移動オブジェクトを追い越すような挙動をすることを防ぎ、移動オブジェクトの周囲で円弧を描くようなカメラワークを実現できる。 In the process of interpolating the virtual camera coordinates, the virtual camera control unit 213 may perform linear interpolation on each of the virtual camera's gaze point, rotation, and distance based on the application rate set for each frame, and set various parameters such as the position and attitude of the virtual camera in each frame of the event scene. By controlling the virtual camera with the above-mentioned process in an event scene, it is possible to prevent the virtual camera from behaving in a way that overtakes a moving object, and to realize camerawork that draws an arc around a moving object.
画像生成部214は、仮想カメラに基づいて、仮想空間の画像、すなわち、仮想カメラで仮想空間内を撮影した画像を生成する。例えば、画像生成部214は、仮想カメラ制御部213によって決定された、仮想カメラの位置情報、及び、仮想カメラのパラメータ情報などに基づいて、仮想カメラの画角に含まれる領域を特定し、仮想空間の画像を生成する。画像生成部214が生成した画像は、リアルタイムでプレイヤ端末30へ出力され、プレイヤ端末30のディスプレイなどの表示部34に表示される。 The image generation unit 214 generates an image of the virtual space based on the virtual camera, i.e., an image captured within the virtual space by the virtual camera. For example, the image generation unit 214 identifies an area included in the angle of view of the virtual camera based on the position information of the virtual camera and parameter information of the virtual camera determined by the virtual camera control unit 213, and generates an image of the virtual space. The image generated by the image generation unit 214 is output to the player terminal 30 in real time and displayed on a display unit 34 such as a display of the player terminal 30.
操作情報受信部215は、プレイヤ3によりプレイヤ端末30を介して入力される操作情報を受信する。操作情報受信部215により受け付けた操作情報は、ゲーム処理部211、仮想カメラ制御部213などの各機能部に対する指示情報として用いられ、仮想空間上におけるプレイヤキャラクタの制御、その他NPCの制御、仮想カメラの制御などが実行される。 The operation information receiving unit 215 receives operation information input by the player 3 via the player terminal 30. The operation information received by the operation information receiving unit 215 is used as instruction information for each functional unit such as the game processing unit 211 and the virtual camera control unit 213, and controls the player character in the virtual space, other NPCs, the virtual camera, and the like.
仮想空間設定部210、ゲーム処理部211、イベント実行部212、仮想カメラ制御部213、画像生成部214、操作情報受信部215は、上記においてサーバ20のプロセッサ21により実現される機能として例示したが、これらの機能の一部又は全部が、プレイヤ端末30の制御部31に備わっていてもよい。この場合、各機能部による処理に必要なアプリケーションプログラムが、プレイヤ端末30に送付され、プレイヤ端末30のプロセッサがプログラムを実行することで各機能部が実現される。 The virtual space setting unit 210, game processing unit 211, event execution unit 212, virtual camera control unit 213, image generation unit 214, and operation information receiving unit 215 are exemplified above as functions realized by the processor 21 of the server 20, but some or all of these functions may be provided in the control unit 31 of the player terminal 30. In this case, application programs required for processing by each functional unit are sent to the player terminal 30, and each functional unit is realized by the processor of the player terminal 30 executing the programs.
<プレイヤ端末30>
情報処理システム10における各プレイヤ端末30は、事業者1が提供するゲームサービスを利用する各プレイヤ3に保有されている。プレイヤ端末30は、プレイヤ3が所持し利用することができる情報処理装置であればよく、特に限定されない。たとえば、スマートフォン、携帯電話端末、ゲーム専用の端末、タブレット型コンピュータ、ノート型コンピュータ、もしくは、デスクトップ型コンピュータなどを、プレイヤ端末30として利用することができる。プレイヤ端末30は、サーバ20から送信されたゲームプログラムの処理結果をゲームアプリケーションまたはWebブラウザを介して出力(例えば、ゲーム画像出力、ゲーム音声出力等)することができる。
<Player Terminal 30>
Each player terminal 30 in the information processing system 10 is owned by each player 3 who uses the game service provided by the operator 1. The player terminal 30 is not particularly limited as long as it is an information processing device that can be owned and used by the player 3. For example, a smartphone, a mobile phone terminal, a game-dedicated terminal, a tablet computer, a notebook computer, or a desktop computer can be used as the player terminal 30. The player terminal 30 can output (for example, game image output, game sound output, etc.) the processing result of the game program transmitted from the server 20 via a game application or a Web browser.
プレイヤ端末30は、図2に示すサーバ20のハードウェア構成と同様の構成を有することができ、プレイヤ端末30のハードウェア構成に関する説明は省略する。 The player terminal 30 may have a similar hardware configuration to that of the server 20 shown in FIG. 2, and a description of the hardware configuration of the player terminal 30 will be omitted.
図4は、プレイヤ端末30の機能を簡易的に示すブロック図である。プレイヤ端末30は、例えば、プレイヤ端末30全体の制御を行う制御部31と、各種データ・プログラムを記憶する記憶部32と、プレイヤ3が操作入力を行うための入力部33と、ゲーム画面及び操作画面等を表示する表示部34と、サーバ20との間で情報通信を行う端末通信部35と、を有する。 Figure 4 is a block diagram showing the functions of the player terminal 30 in a simplified manner. The player terminal 30 has, for example, a control unit 31 that controls the entire player terminal 30, a storage unit 32 that stores various data and programs, an input unit 33 through which the player 3 inputs operations, a display unit 34 that displays a game screen, an operation screen, etc., and a terminal communication unit 35 that communicates information with the server 20.
制御部31は、ディスプレイ及びカメラなどのプレイヤ端末30の各部を制御するために必要な機能を有しており、制御部31の各機能は、CPU(Central Processing Unit)及び/又はGPU(Graphics Processing Unit)などのプロセッサが所定のプログラムを実行することによって実現される。プレイヤ端末30の制御部31は、例えば、入力操作受付部311と、処理結果受信部312と、を備えていてもよい。 The control unit 31 has the necessary functions to control each part of the player terminal 30, such as the display and the camera, and each function of the control unit 31 is realized by a processor such as a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit) executing a predetermined program. The control unit 31 of the player terminal 30 may include, for example, an input operation receiving unit 311 and a processing result receiving unit 312.
入力操作受付部311は、プレイヤ3によって後述の入力部33に入力されたゲームに関する操作情報を受け付ける処理を実行する。また、入力操作受付部311は、受け付けたゲームに関する操作情報を、端末通信部35を介して、サーバ20の操作情報受信部215に送信する処理を実行する。 The input operation reception unit 311 executes a process of receiving operation information related to the game input by the player 3 to the input unit 33 described below. The input operation reception unit 311 also executes a process of transmitting the received operation information related to the game to the operation information receiving unit 215 of the server 20 via the device communication unit 35.
処理結果受信部312は、サーバ20の制御部200により生成及び送信された仮想空間の画像などの処理結果を受信し、その処理結果を表示部34に出力させる処理を実行する。なお、プレイヤ端末30の制御部31は、上述した入力操作受付部311、及び、処理結果受信部312以外の機能部を有していてもよい。 The processing result receiving unit 312 receives processing results such as images of the virtual space generated and transmitted by the control unit 200 of the server 20, and executes processing to output the processing results to the display unit 34. Note that the control unit 31 of the player terminal 30 may have functional units other than the input operation receiving unit 311 and the processing result receiving unit 312 described above.
プレイヤ端末30の記憶部32は、各種情報処理、及び、制御部31内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)、SRAM(Static Random Access Memory)、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、その他のストレージ等の1つあるいはそれらの任意の組み合わせによって構成される。また、記憶部32は、プレイヤ端末30が通信を行った際には、プレイヤ端末30の通信内容を一時的に記憶する。記憶部32は、プレイヤ設定記憶部321を備えていてもよい。 The memory unit 32 of the player terminal 30 stores various information processes, programs for executing each function in the control unit 31, input data, etc., and is composed of one or any combination of RAM (Random Access Memory), ROM (Read Only Memory), SRAM (Static Random Access Memory), flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), and other storage. In addition, when the player terminal 30 communicates, the memory unit 32 temporarily stores the communication contents of the player terminal 30. The memory unit 32 may be equipped with a player setting memory unit 321.
プレイヤ設定記憶部321は、決済手段に関する情報、アカウント情報などのプレイヤ3のユーザ設定情報を記憶する。このようなユーザ設定情報は、サーバ20のプレイヤ情報記憶部222に記憶させておいてもよい。 The player setting storage unit 321 stores user setting information of the player 3, such as information regarding the payment method and account information. Such user setting information may be stored in the player information storage unit 222 of the server 20.
<入力部>
入力部33は、プレイヤ3による入力操作を受け付けて、ゲームにおけるプレイヤ3の操作情報を生成する。プレイヤ3による入力操作としては、例えば、タッチパネルなどの表示面への接触による入力操作、プレイヤ端末30に備えられている物理ボタンを介した入力操作、キーボードを用いた入力操作、マイクを用いた音声の入力操作、プレイヤ端末30に内装されるジャイロセンサのようなセンサを利用してプレイヤ3がプレイヤ端末30を物理的に動かす(傾ける、振るなど)ことによる入力操作などが挙げられる。
<Input section>
The input unit 33 receives an input operation by the player 3 and generates operation information for the player 3 in the game. Examples of the input operation by the player 3 include an input operation by touching a display surface such as a touch panel, an input operation via physical buttons provided on the player terminal 30, an input operation using a keyboard, an input operation by voice using a microphone, and an input operation by the player 3 physically moving (tilting, shaking, etc.) the player terminal 30 using a sensor such as a gyro sensor built into the player terminal 30.
<表示部>
表示部34は、ゲームプログラムの処理結果が表示されるディスプレイであり、このディスプレイは、表示面への接触によりプレイヤ3の入力操作を受付可能なタッチパネルであってもよい。
<Display section>
The display unit 34 is a display on which the processing results of the game program are displayed, and this display may be a touch panel capable of receiving input operations from the player 3 by touching the display surface.
<端末通信部>
端末通信部35は、ネットワークNを介して、サーバ20の送受信部24と接続されている。端末通信部35と、送受信部24とは、互いに情報を送受信する。
<Terminal communication unit>
The terminal communication unit 35 is connected to the transmission/reception unit 24 of the server 20 via the network N. The terminal communication unit 35 and the transmission/reception unit 24 transmit and receive information to and from each other.
以下、カメラワークに関する情報処理の一例を、図10に示すフローチャートに基づいて生成する。 Below, an example of information processing related to camera work is generated based on the flowchart shown in Figure 10.
まず、仮想空間設定部210が、移動オブジェクトの移動制限領域を設定した仮想空間を生成する(ステップS1)。例えば、仮想空間設定部210は、3次元座標系で表される仮想空間を構築したうえで、当該仮想空間上に背景オブジェクトを設置する。そして、背景オブジェクトなどのオブジェクトの配置情報に基づいて、移動オブジェクトが進入できない移動制限領域を設定する。移動制限領域の境界面は、仮想空間に配置される背景などのオブジェクトの外面よりも外側に設定されてもよく、この場合、仮想空間設定部210は、背景オブジェクトの外面から所定距離、離れた位置に移動制限領域の境界面を規定する。 First, the virtual space setting unit 210 generates a virtual space in which a movement restriction area for moving objects is set (step S1). For example, the virtual space setting unit 210 constructs a virtual space represented in a three-dimensional coordinate system, and then places a background object in the virtual space. Then, based on the placement information of objects such as the background object, a movement restriction area into which the moving object cannot enter is set. The boundary surface of the movement restriction area may be set outside the outer surface of an object such as the background placed in the virtual space, in which case the virtual space setting unit 210 specifies the boundary surface of the movement restriction area at a position a predetermined distance away from the outer surface of the background object.
移動制限領域の設定後、仮想空間設定部210は、構築した仮想空間内に、プレイヤキャラクタ、敵キャラクタ、味方キャラクタなどの各種移動オブジェクトを配置するとともに、仮想空間内に仮想カメラを設置し、仮想空間上でのゲームを開始できる状態にする(ステップS2)。なお、仮想カメラは、仮想空間内でオブジェクトとして具現化された状態で設置されてもよいし、オブジェクトとして具現化されることなく各種カメラパラメータにより表現されていてもよい。 After setting the movement restriction area, the virtual space setting unit 210 places various moving objects such as the player character, enemy character, and ally character in the constructed virtual space, and also sets up a virtual camera in the virtual space, making it possible to start a game in the virtual space (step S2). Note that the virtual camera may be set up in a state where it is embodied as an object in the virtual space, or it may be represented by various camera parameters without being embodied as an object.
ゲームが開始されると、ゲーム処理部211は、プレイヤ3から入力される操作情報に基づいてプレイヤキャラクタの動作を制御し、仮想空間上でのゲームを進行させる。また、ゲーム処理部211は、ゲームの進行状況に応じて、敵キャラクタなどのNPCを制御する処理も実行する(ステップS3)。ゲームの実行中、仮想カメラ制御部213は、移動オブジェクトの操作情報に基づき、仮想カメラの移動を制御する(ステップS4)。例えば、仮想カメラ制御部213は、プレイヤキャラクタの所定位置に注視点を設定し、プレイヤキャラクタの移動に伴う当該注視点の位置座標の変化に応じて、注視点に追従するように仮想カメラを移動させる処理を実行する。 When the game starts, the game processing unit 211 controls the actions of the player character based on operation information input by the player 3, and progresses the game in the virtual space. The game processing unit 211 also executes processing to control NPCs such as enemy characters according to the progress of the game (step S3). While the game is being played, the virtual camera control unit 213 controls the movement of the virtual camera based on operation information of a moving object (step S4). For example, the virtual camera control unit 213 executes processing to set a gaze point at a predetermined position of the player character, and move the virtual camera to follow the gaze point according to changes in the position coordinates of the gaze point accompanying the movement of the player character.
仮想カメラ制御部213は、ゲームの実行中、上記のように仮想カメラの動作を制御しつつ、注視点と仮想カメラとの間に移動オブジェクトの移動制限領域の境界面が介在するか否かを判定する(ステップS5)。注視点と仮想カメラとの間に移動制限領域の境界面が介在しない場合には(ステップS5の「No」)、仮想カメラ制御部213は、リアルタイムで、三人称視点の仮想空間内画像を生成し、当該生成画像をプレイヤ端末30のディスプレイに表示させ、ステップS4の注視点に追従する仮想カメラの制御を継続する。注視点と仮想カメラとの間に移動制限領域の境界面が介在すると判定した場合には(ステップS5の「Yes」)、仮想カメラ制御部213は、仮想カメラを、注視点と仮想カメラとを結ぶ仮想線上の所定位置に移動させて、背景オブジェクトなどの障害物が介在する可能性のある領域(仮想カメラの進入制限領域)を回避する処理を実行する(ステップS6)。 While the game is being played, the virtual camera control unit 213 determines whether or not the boundary surface of the movement restriction area of the moving object is between the gaze point and the virtual camera while controlling the operation of the virtual camera as described above (step S5). If the boundary surface of the movement restriction area is not between the gaze point and the virtual camera ("No" in step S5), the virtual camera control unit 213 generates an image of the virtual space from a third-person perspective in real time, displays the generated image on the display of the player terminal 30, and continues to control the virtual camera that follows the gaze point of step S4. If it is determined that the boundary surface of the movement restriction area is between the gaze point and the virtual camera ("Yes" in step S5), the virtual camera control unit 213 moves the virtual camera to a predetermined position on the virtual line connecting the gaze point and the virtual camera, and executes a process of avoiding an area where an obstacle such as a background object may be present (an entry restriction area for the virtual camera) (step S6).
仮想空間内においては、仮想カメラの進入を禁止する進入制限領域が、移動オブジェクトの移動制限領域の境界面を基準として相対的に特定されてもよい。仮想カメラ制御部213は、相対的に特定される進入制限領域の境界面と、注視点と仮想カメラとを結ぶ仮想線とが、交差する位置を仮想カメラの補正位置として設定してもよい。より具体的には、仮想カメラ制御部213は、注視点から、仮想線(注視点と仮想カメラとを結ぶ仮想線)と境界面(移動オブジェクトの移動制限領域の境界面)との交点までの第1距離を算出し、当該第1距離、及び、境界面から法線方向に向かって予め設定された許容距離に基づき、仮想線上で仮想カメラを移動させる補正距離を決定してもよい。 In the virtual space, an entry restriction area into which the virtual camera is prohibited from entering may be relatively specified based on the boundary surface of the movement restriction area of the moving object. The virtual camera control unit 213 may set the position where the boundary surface of the entry restriction area specified relatively intersects with a virtual line connecting the gaze point and the virtual camera as the correction position of the virtual camera. More specifically, the virtual camera control unit 213 may calculate a first distance from the gaze point to the intersection of the virtual line (the virtual line connecting the gaze point and the virtual camera) and the boundary surface (the boundary surface of the movement restriction area of the moving object), and determine a correction distance for moving the virtual camera on the virtual line based on the first distance and a preset allowable distance from the boundary surface in the normal direction.
上記のように、画角の中心に向かう方向とは異なる注視ベクトルの方向で仮想カメラの位置を補正することで、注視点を画角から外すことなく、障害物を回避できる。また、上記の方法で仮想カメラの位置を補正した場合、仮想カメラに基づいて仮想空間内の画像を生成するステップS7では、注視点の移動オブジェクトだけでなくその周辺の戦闘シーンを捉えられる画角でズームする、違和感のない画像を生成でき、ゲームへの没入感をプレイヤ3に提供することができる。また、本実施形態の情報処理方法では、仮想カメラ周辺にカメラ専用の接触判定範囲を設ける必要がなく、効率的に仮想カメラの移動を制御できる。 As described above, by correcting the position of the virtual camera in the direction of the gaze vector different from the direction toward the center of the angle of view, it is possible to avoid obstacles without moving the gaze point outside the angle of view. Furthermore, when the position of the virtual camera is corrected by the above method, in step S7 for generating an image in the virtual space based on the virtual camera, a natural image can be generated by zooming in with an angle of view that can capture not only the moving object at the gaze point but also the surrounding battle scene, providing the player 3 with a sense of immersion in the game. Furthermore, with the information processing method of this embodiment, it is not necessary to provide a dedicated collision detection range for the camera around the virtual camera, and the movement of the virtual camera can be controlled efficiently.
次に、イベントシーンの実行時のカメラワークに関する情報処理の一例を、図11に示すフローチャートに基づいて生成する。 Next, an example of information processing related to camera work during the execution of an event scene is generated based on the flowchart shown in Figure 11.
まず、特殊アクションなどのイベントの開始条件が成立すると(ステップS11)、仮想カメラ制御部213は、イベント実行前の仮想カメラの位置座標、及び、カメラの焦点方向、姿勢パラメータなどのその他パラメータを保存する(ステップS12)。そして、仮想カメラ制御部213は、実行するイベントシーンに対応する仮想カメラの設定情報を、ゲーム情報記憶部221から読み出す(ステップS13)。この仮想カメラの設定情報には、イベントシーンのアニメーションデータに対応づけられた、仮想カメラの軌道を示す時系列データが含まれる。 First, when the start conditions for an event such as a special action are met (step S11), the virtual camera control unit 213 saves the position coordinates of the virtual camera before the event is executed, as well as other parameters such as the camera's focal direction and attitude parameters (step S12). Then, the virtual camera control unit 213 reads out the setting information for the virtual camera corresponding to the event scene to be executed from the game information storage unit 221 (step S13). This setting information for the virtual camera includes time-series data indicating the trajectory of the virtual camera, which is associated with the animation data for the event scene.
時系列データの取得後、仮想カメラ制御部213は、イベントシーンの実行に合わせて、時系列データに含まれる仮想カメラの理想の相対座標(注視点とする移動オブジェクトを基準とする相対座標)、及び、適用率(ブレンド率)に基づいて、イベントシーンでの仮想カメラの移動を制御する(ステップS14)。例えば、仮想カメラ制御部213は、ステップS12で保存した座標(前の時間における座標)と、理想の相対座標とを、対象フレームに設定された適用率でブレンド(混合)することで、対象フレームでの仮想カメラの座標を決定してもよい。この仮想カメラの座標を補間する処理では、仮想カメラ制御部213は、フレームごとに設定された適用率に基づいて、仮想カメラの注視点、回転、及び、距離のそれぞれに対して線形補間を行い、イベントシーンの各フレームにおける仮想カメラの位置、及び、姿勢などの各種パラメータを設定してもよい。 After acquiring the time series data, the virtual camera control unit 213 controls the movement of the virtual camera in the event scene based on the ideal relative coordinates (relative coordinates based on the moving object as the gaze point) of the virtual camera included in the time series data and the application rate (blending rate) in accordance with the execution of the event scene (step S14). For example, the virtual camera control unit 213 may determine the coordinates of the virtual camera in the target frame by blending (mixing) the coordinates (coordinates at the previous time) saved in step S12 and the ideal relative coordinates at the application rate set for the target frame. In the process of interpolating the virtual camera coordinates, the virtual camera control unit 213 may perform linear interpolation for each of the gaze point, rotation, and distance of the virtual camera based on the application rate set for each frame, and set various parameters such as the position and attitude of the virtual camera in each frame of the event scene.
イベントシーン実行時に上記のような情報処理方法で仮想カメラを制御することで、仮想カメラが移動オブジェクトを追い越すような挙動をすることを防ぎ、移動オブジェクトの周囲で円弧を描くようなカメラワークを実現できる。そして、仮想カメラを、イベントの発動主体である移動オブジェクトの周囲を旋回させることで(例えば、図9に示すように円弧を描くように旋回させる)、臨場感のある画像を生成でき、プレイヤ3のゲームへの没入感を高めることができる。 By controlling the virtual camera using the information processing method described above when an event scene is being executed, it is possible to prevent the virtual camera from overtaking the moving object, and to realize camerawork that draws an arc around the moving object. Then, by rotating the virtual camera around the moving object that triggered the event (for example, rotating in an arc as shown in FIG. 9), a realistic image can be generated, and the player 3's sense of immersion in the game can be enhanced.
以上、本開示の一実施形態について説明してきたが、本発明は上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々に改変することができる。 The above describes one embodiment of the present disclosure, but the present invention is not limited to the above-described embodiment and can be modified in various ways without departing from the gist of the present invention.
たとえば、上述した実施形態では、サーバ20に格納されたプログラムが、ゲームに関する情報処理を実行する場合を説明したが、プレイヤ端末30にプログラムが格納されていてもよい。そして、プレイヤ端末30が、このプログラムに基づいて、ゲームに関する情報処理を実行してもよい。 For example, in the above embodiment, a case has been described in which a program stored in the server 20 processes information about the game, but the program may also be stored in the player terminal 30. Then, the player terminal 30 may process information about the game based on this program.
本開示は、以下の構成を備える。
(項目1)
移動オブジェクトの移動制限領域が設定された仮想空間を生成する仮想空間設定部と、
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御部と、
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成部と、を備え、
前記仮想カメラ制御部は、
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定し、
前記境界面が介在すると判定した場合に、前記注視点と前記仮想カメラとを結ぶ仮想線上の所定位置に前記仮想カメラを移動させる、情報処理システム。
(項目2)
前記仮想カメラ制御部は、
前記注視点から、前記仮想線と前記境界面との交点までの第1距離を算出し、
当該第1距離、及び、前記境界面から法線方向に向かって予め設定された許容距離に基づき、前記仮想線上で前記仮想カメラを移動させる補正距離を決定する、項目1に記載の情報処理システム。
(項目3)
前記注視点と前記仮想カメラとの間に前記境界面が介在する場合における前記仮想カメラの移動先座標は、前記仮想線上における前記注視点から前記境界面までの第1距離よりも前記注視点から離れた位置である、項目1又は2に記載の情報処理システム。
(項目4)
前記移動制限領域の前記境界面は、前記仮想空間に配置されているオブジェクトの外面よりも外側に設定されている、項目1又は2に記載の情報処理システム。
(項目5)
前記仮想カメラ制御部は、前記移動オブジェクトの移動制限領域の前記境界面を基準として、前記仮想カメラの相対的な進入制限領域を特定する、項目1又は2に記載の情報処理システム。
(項目6)
前記移動オブジェクトに関連するイベントシーンを実行するイベント実行部、をさらに備え、
前記仮想カメラ制御部は、前記イベントシーンの実行時に、前記移動オブジェクトの周囲を旋回するような軌跡で、前記仮想カメラを移動させる、項目1又は2に記載の情報処理システム。
(項目7)
前記仮想カメラ制御部は、前記イベントシーンのアクションの各フレームに対応づけられた、前記移動オブジェクトを基準とする前記仮想カメラの理想の相対座標、及び、当該理想の相対座標の適用率に基づいて、前記イベントシーンにおける前記仮想カメラの移動を制御する、項目6に記載の情報処理システム。
(項目8)
移動オブジェクトの移動制限領域が設定された仮想空間を生成する仮想空間設定処理と、
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御処理と、
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成処理と、をコンピュータが実行する情報処理方法であり、
前記仮想カメラ制御処理は、
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定することと、
前記境界面が介在すると判定した場合に、前記注視点と前記仮想カメラとを結ぶ仮想線上の所定位置に前記仮想カメラを移動させることと、を含む、情報処理方法。
(項目9)
移動オブジェクトの移動制限領域が設定された仮想空間を生成する仮想空間設定処理と、
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御処理と、
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成処理と、をコンピュータに実行させるためのプログラムであり、
前記仮想カメラ制御処理は、
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定することと、
前記境界面が介在すると判定した場合に、前記注視点と前記仮想カメラとを結ぶ仮想線上の所定位置に前記仮想カメラを移動させることと、を含む、プログラム。
The present disclosure has the following configuration.
(Item 1)
a virtual space setting unit that generates a virtual space in which a movement restriction area for a moving object is set;
a virtual camera control unit that controls a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
an image generating unit that generates an image of the virtual space based on the virtual camera,
The virtual camera control unit:
determining whether or not a boundary surface of the movement restriction area is interposed between the gaze point and the virtual camera;
When it is determined that the boundary surface is present, the information processing system moves the virtual camera to a predetermined position on a virtual line connecting the gaze point and the virtual camera.
(Item 2)
The virtual camera control unit:
Calculating a first distance from the gaze point to an intersection point between the virtual line and the boundary surface;
2. The information processing system according to item 1, further comprising: determining a correction distance for moving the virtual camera on the virtual line based on the first distance and a preset allowable distance from the boundary surface in a normal direction.
(Item 3)
3. The information processing system according to item 1 or 2, wherein when the boundary surface is interposed between the gaze point and the virtual camera, the destination coordinates of the virtual camera are a position farther from the gaze point than a first distance on the virtual line from the gaze point to the boundary surface.
(Item 4)
3. The information processing system according to item 1 or 2, wherein the boundary surface of the movement restriction area is set outside an outer surface of an object placed in the virtual space.
(Item 5)
3. The information processing system according to item 1 or 2, wherein the virtual camera control unit specifies a relative entry restriction area of the virtual camera based on the boundary surface of a movement restriction area of the moving object.
(Item 6)
An event execution unit that executes an event scene related to the moving object,
3. The information processing system according to item 1 or 2, wherein the virtual camera control unit moves the virtual camera along a trajectory that revolves around the moving object during execution of the event scene.
(Item 7)
The information processing system described in item 6, wherein the virtual camera control unit controls movement of the virtual camera in the event scene based on ideal relative coordinates of the virtual camera with respect to the moving object, which are associated with each frame of the action of the event scene, and an application rate of the ideal relative coordinates.
(Item 8)
A virtual space setting process for generating a virtual space in which a movement restriction area for a moving object is set;
A virtual camera control process for controlling a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
an image generation process for generating an image of the virtual space based on the virtual camera,
The virtual camera control process includes:
determining whether or not a boundary surface of the movement restriction area is present between the gaze point and the virtual camera;
When it is determined that the boundary surface is present, moving the virtual camera to a predetermined position on a virtual line connecting the gaze point and the virtual camera.
(Item 9)
A virtual space setting process for generating a virtual space in which a movement restriction area for a moving object is set;
A virtual camera control process for controlling a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
an image generation process for generating an image of the virtual space based on the virtual camera,
The virtual camera control process includes:
determining whether or not a boundary surface of the movement restriction area is present between the gaze point and the virtual camera;
and when it is determined that the boundary surface is present, moving the virtual camera to a predetermined position on a virtual line connecting the gaze point and the virtual camera.
1 … 事業者
3 … プレイヤ
10 … 情報処理システム
20 … サーバ(情報処理装置)
1 ... business operator 3 ... player 10 ... information processing system 20 ... server (information processing device)
Claims (12)
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御部と、
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成部と、を備え、
前記仮想カメラ制御部は、
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定し、
前記境界面が介在すると判定した場合に、前記注視点から、前記注視点と前記仮想カメラとを結ぶ仮想線と前記境界面との交点までの第1距離を算出し、
当該第1距離、及び、前記境界面から法線方向に向かって予め設定された許容距離に基づき、前記仮想線上で前記仮想カメラを移動させる補正距離を決定し、仮想線上の所定位置に前記仮想カメラを移動させる、情報処理システム。 a virtual space setting unit that generates a virtual space in which a movement restriction area for a moving object is set;
a virtual camera control unit that controls a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
an image generating unit that generates an image of the virtual space based on the virtual camera,
The virtual camera control unit:
determining whether or not a boundary surface of the movement restriction area is interposed between the gaze point and the virtual camera;
When it is determined that the boundary surface is present, a first distance is calculated from the gaze point to an intersection point between the gaze point and the virtual camera and the boundary surface;
an information processing system that determines a correction distance for moving the virtual camera on the virtual line based on the first distance and a predetermined allowable distance from the boundary surface in a normal direction, and moves the virtual camera to a predetermined position on the virtual line .
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御部と、
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成部と、を備え、
前記仮想カメラ制御部は、
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定し、
前記境界面が介在すると判定した場合に、前記注視点と前記仮想カメラとを結ぶ仮想線上の所定位置に前記仮想カメラを移動させ、
前記注視点と前記仮想カメラとの間に前記境界面が介在する場合における前記仮想カメラの移動先座標は、前記仮想線上における前記注視点から前記境界面までの第1距離よりも前記注視点から離れた位置である、情報処理システム。 a virtual space setting unit that generates a virtual space in which a movement restriction area for a moving object is set;
a virtual camera control unit that controls the virtual camera from a third-person viewpoint in which the gaze point is off the center of the angle of view;
an image generating unit that generates an image of the virtual space based on the virtual camera,
The virtual camera control unit:
determining whether or not a boundary surface of the movement restriction area is interposed between the gaze point and the virtual camera;
When it is determined that the boundary surface is present, the virtual camera is moved to a predetermined position on a virtual line connecting the gaze point and the virtual camera ;
An information processing system, wherein when the boundary surface is interposed between the gaze point and the virtual camera, the destination coordinates of the virtual camera are a position farther from the gaze point than a first distance on the virtual line from the gaze point to the boundary surface.
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御部と、
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成部と、を備え、
前記仮想カメラ制御部は、
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定し、
前記境界面が介在すると判定した場合に、前記注視点と前記仮想カメラとを結ぶ仮想線上の所定位置に前記仮想カメラを移動させ、
前記移動制限領域の前記境界面は、前記仮想空間に配置されているオブジェクトの外面よりも外側に設定されている、情報処理システム。 a virtual space setting unit that generates a virtual space in which a movement restriction area for a moving object is set;
a virtual camera control unit that controls a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
an image generating unit that generates an image of the virtual space based on the virtual camera,
The virtual camera control unit:
determining whether or not a boundary surface of the movement restriction area is interposed between the gaze point and the virtual camera;
When it is determined that the boundary surface is present, the virtual camera is moved to a predetermined position on a virtual line connecting the gaze point and the virtual camera ;
An information processing system, wherein the boundary surface of the movement restriction area is set outside an outer surface of an object placed in the virtual space.
前記仮想カメラ制御部は、前記イベントシーンの実行時に、前記移動オブジェクトの周囲を旋回するような軌跡で、前記仮想カメラを移動させる、請求項1~3のいずれかに記載の情報処理システム。 An event execution unit that executes an event scene related to the moving object,
4. The information processing system according to claim 1, wherein the virtual camera control unit moves the virtual camera along a trajectory that revolves around the moving object during execution of the event scene.
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御処理と、
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成処理と、をコンピュータが実行する情報処理方法であり、
前記仮想カメラ制御処理は、
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定することと、
前記境界面が介在すると判定した場合に、前記注視点から、前記注視点と前記仮想カメラとを結ぶ仮想線と前記境界面との交点までの第1距離を算出することと、
当該第1距離、及び、前記境界面から法線方向に向かって予め設定された許容距離に基づき、前記仮想線上で前記仮想カメラを移動させる補正距離を決定し、仮想線上の所定位置に前記仮想カメラを移動させることと、を含む、情報処理方法。 A virtual space setting process for generating a virtual space in which a movement restriction area for a moving object is set;
A virtual camera control process for controlling a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
an image generation process for generating an image of the virtual space based on the virtual camera,
The virtual camera control process includes:
determining whether or not a boundary surface of the movement restriction area is present between the gaze point and the virtual camera;
When it is determined that the boundary surface is present, calculating a first distance from the gaze point to an intersection point between the gaze point and the virtual camera and the boundary surface;
determining a correction distance for moving the virtual camera on the virtual line based on the first distance and a predetermined allowable distance from the boundary surface in a normal direction, and moving the virtual camera to a predetermined position on the virtual line .
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御処理と、A virtual camera control process for controlling a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成処理と、をコンピュータが実行する情報処理方法であり、an image generation process for generating an image of the virtual space based on the virtual camera,
前記仮想カメラ制御処理は、The virtual camera control process includes:
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定することと、determining whether or not a boundary surface of the movement restriction area is present between the gaze point and the virtual camera;
前記境界面が介在すると判定した場合に、前記注視点と前記仮想カメラとを結ぶ仮想線上の所定位置に前記仮想カメラを移動させることと、を含み、When it is determined that the boundary surface is present, moving the virtual camera to a predetermined position on a virtual line connecting the gaze point and the virtual camera,
前記注視点と前記仮想カメラとの間に前記境界面が介在する場合における前記仮想カメラの移動先座標は、前記仮想線上における前記注視点から前記境界面までの第1距離よりも前記注視点から離れた位置である、情報処理方法。An information processing method, in which when the boundary surface is interposed between the gaze point and the virtual camera, the destination coordinates of the virtual camera are a position farther from the gaze point than a first distance on the virtual line from the gaze point to the boundary surface.
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御処理と、A virtual camera control process for controlling a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成処理と、をコンピュータが実行する情報処理方法であり、an image generation process for generating an image of the virtual space based on the virtual camera,
前記仮想カメラ制御処理は、The virtual camera control process includes:
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定することと、determining whether or not a boundary surface of the movement restriction area is present between the gaze point and the virtual camera;
前記境界面が介在すると判定した場合に、前記注視点と前記仮想カメラとを結ぶ仮想線上の所定位置に前記仮想カメラを移動させることと、を含み、When it is determined that the boundary surface is present, moving the virtual camera to a predetermined position on a virtual line connecting the gaze point and the virtual camera,
前記移動制限領域の前記境界面は、前記仮想空間に配置されているオブジェクトの外面よりも外側に設定されている、情報処理方法。An information processing method, wherein the boundary surface of the movement restriction area is set outside an outer surface of an object placed in the virtual space.
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御処理と、
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成処理と、をコンピュータに実行させるためのプログラムであり、
前記仮想カメラ制御処理は、
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定することと、
前記境界面が介在すると判定した場合に、前記注視点から、前記注視点と前記仮想カメラとを結ぶ仮想線と前記境界面との交点までの第1距離を算出することと、
当該第1距離、及び、前記境界面から法線方向に向かって予め設定された許容距離に基づき、前記仮想線上で前記仮想カメラを移動させる補正距離を決定し、仮想線上の所定位置に前記仮想カメラを移動させることと、を含む、プログラム。 A virtual space setting process for generating a virtual space in which a movement restriction area for a moving object is set;
A virtual camera control process for controlling a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
an image generation process for generating an image of the virtual space based on the virtual camera,
The virtual camera control process includes:
determining whether or not a boundary surface of the movement restriction area is present between the gaze point and the virtual camera;
When it is determined that the boundary surface is present, calculating a first distance from the gaze point to an intersection point between the gaze point and the virtual camera and the boundary surface;
determining a correction distance for moving the virtual camera on the virtual line based on the first distance and a predetermined allowable distance from the boundary surface in a normal direction, and moving the virtual camera to a predetermined position on the virtual line .
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御処理と、A virtual camera control process for controlling a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成処理と、をコンピュータに実行させるためのプログラムであり、an image generation process for generating an image of the virtual space based on the virtual camera,
前記仮想カメラ制御処理は、The virtual camera control process includes:
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定することと、determining whether or not a boundary surface of the movement restriction area is present between the gaze point and the virtual camera;
前記境界面が介在すると判定した場合に、前記注視点と前記仮想カメラとを結ぶ仮想線上の所定位置に前記仮想カメラを移動させることと、を含み、When it is determined that the boundary surface is present, moving the virtual camera to a predetermined position on a virtual line connecting the gaze point and the virtual camera,
前記注視点と前記仮想カメラとの間に前記境界面が介在する場合における前記仮想カメラの移動先座標は、前記仮想線上における前記注視点から前記境界面までの第1距離よりも前記注視点から離れた位置である、プログラム。A program, in which when the boundary surface is interposed between the gaze point and the virtual camera, the destination coordinates of the virtual camera are a position farther from the gaze point than a first distance on the virtual line from the gaze point to the boundary surface.
注視点が画角の中心から外れている3人称視点で仮想カメラを制御する仮想カメラ制御処理と、A virtual camera control process for controlling a virtual camera from a third-person viewpoint in which a gaze point is off the center of an angle of view;
前記仮想カメラに基づいて前記仮想空間の画像を生成する画像生成処理と、をコンピュータに実行させるためのプログラムであり、an image generation process for generating an image of the virtual space based on the virtual camera,
前記仮想カメラ制御処理は、The virtual camera control process includes:
前記注視点と前記仮想カメラとの間に、前記移動制限領域の境界面が介在するか否かを判定することと、determining whether or not a boundary surface of the movement restriction area is present between the gaze point and the virtual camera;
前記境界面が介在すると判定した場合に、前記注視点と前記仮想カメラとを結ぶ仮想線上の所定位置に前記仮想カメラを移動させることと、を含み、When it is determined that the boundary surface is present, moving the virtual camera to a predetermined position on a virtual line connecting the gaze point and the virtual camera,
前記移動制限領域の前記境界面は、前記仮想空間に配置されているオブジェクトの外面よりも外側に設定されている、プログラム。The boundary surface of the movement restriction area is set outside an outer surface of an object placed in the virtual space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024199864A JP7644869B1 (en) | 2024-11-15 | 2024-11-15 | Information processing system, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024199864A JP7644869B1 (en) | 2024-11-15 | 2024-11-15 | Information processing system, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7644869B1 true JP7644869B1 (en) | 2025-03-12 |
Family
ID=94922087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024199864A Active JP7644869B1 (en) | 2024-11-15 | 2024-11-15 | Information processing system, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7644869B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002360920A (en) * | 2001-06-05 | 2002-12-17 | Atlus Co Ltd | Game image control device |
JP2009011567A (en) * | 2007-07-04 | 2009-01-22 | Nintendo Co Ltd | GAME PROGRAM AND GAME DEVICE |
JP2014235538A (en) * | 2013-05-31 | 2014-12-15 | 任天堂株式会社 | Information processing program, information processing device, information processing system, and information processing method |
JP2018112789A (en) * | 2017-01-06 | 2018-07-19 | 任天堂株式会社 | Information processing system, information processing program, information processing apparatus, information processing method, game system, game program, game apparatus, and game method |
JP2022543440A (en) * | 2019-08-06 | 2022-10-12 | ロブロックス・コーポレーション | Changing camera view in electronic games |
JP2023166046A (en) * | 2022-06-10 | 2023-11-20 | 任天堂株式会社 | Information processing program, information processing device, information processing system and information processing method |
-
2024
- 2024-11-15 JP JP2024199864A patent/JP7644869B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002360920A (en) * | 2001-06-05 | 2002-12-17 | Atlus Co Ltd | Game image control device |
JP2009011567A (en) * | 2007-07-04 | 2009-01-22 | Nintendo Co Ltd | GAME PROGRAM AND GAME DEVICE |
JP2014235538A (en) * | 2013-05-31 | 2014-12-15 | 任天堂株式会社 | Information processing program, information processing device, information processing system, and information processing method |
JP2018112789A (en) * | 2017-01-06 | 2018-07-19 | 任天堂株式会社 | Information processing system, information processing program, information processing apparatus, information processing method, game system, game program, game apparatus, and game method |
JP2022543440A (en) * | 2019-08-06 | 2022-10-12 | ロブロックス・コーポレーション | Changing camera view in electronic games |
JP2023166046A (en) * | 2022-06-10 | 2023-11-20 | 任天堂株式会社 | Information processing program, information processing device, information processing system and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7207911B2 (en) | Program, game system, server system and game providing method | |
US20070054716A1 (en) | Network game system, client device and server apparatus | |
JP6782159B2 (en) | Program and game equipment | |
JP4137139B2 (en) | Video game processing apparatus and video game processing program | |
JP7728902B2 (en) | Programs, information processing systems | |
JP4050658B2 (en) | GAME DEVICE, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM | |
US11992754B2 (en) | Information storage medium, game device, and game system | |
JP7623621B2 (en) | Game program and game system | |
JP4792878B2 (en) | Competitive video game control program | |
JP2023018098A (en) | Program, Game Device, Server Device, and Game Providing Method | |
US11298617B2 (en) | Game program, game processing method, and information processing device | |
JP2007075446A (en) | Video game processing apparatus and video game processing program | |
JP2023099961A (en) | Program, information processing device and information processing method | |
JP7644869B1 (en) | Information processing system, information processing method, and program | |
JP7709909B2 (en) | GAME PROGRAM, GAME PROCESSING METHOD AND INFORMATION PROCESSING DEVICE | |
JP2008237372A (en) | Game program, game device and game control method | |
JP7401774B2 (en) | Game programs and game systems | |
JP5734561B2 (en) | Game system and program for realizing the game system | |
JP7581452B2 (en) | Game system and program | |
WO2022264681A1 (en) | Computer program, game system used in same, and control method | |
JP7385140B2 (en) | Game programs and game systems | |
JP7734263B1 (en) | Program and information processing system | |
JP7667356B1 (en) | Program, method and information processing device | |
JP7463322B2 (en) | Programs, information processing systems | |
JP2007296109A (en) | Video game processing apparatus, video game processing method, and video game processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241121 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20241121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7644869 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |