[go: up one dir, main page]

JP2024049299A - Program and information processing system - Google Patents

Program and information processing system Download PDF

Info

Publication number
JP2024049299A
JP2024049299A JP2023056252A JP2023056252A JP2024049299A JP 2024049299 A JP2024049299 A JP 2024049299A JP 2023056252 A JP2023056252 A JP 2023056252A JP 2023056252 A JP2023056252 A JP 2023056252A JP 2024049299 A JP2024049299 A JP 2024049299A
Authority
JP
Japan
Prior art keywords
virtual space
user
image
user object
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023056252A
Other languages
Japanese (ja)
Other versions
JP7561231B2 (en
Inventor
隆介 國府田
Ryusuke Koda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2023056252A priority Critical patent/JP7561231B2/en
Publication of JP2024049299A publication Critical patent/JP2024049299A/en
Application granted granted Critical
Publication of JP7561231B2 publication Critical patent/JP7561231B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a program capable of preventing a work of another people from clearly reflecting in a virtual space image, and an information processing system.SOLUTION: A program executed by a computer causes the computer to function as means for generating a virtual space 501, means for arranging a virtual camera, a user object 502, and a specific object in the virtual space 501, and means for generating a virtual space image, which is an image in the virtual space 501, on the basis of the virtual camera. The program also causes the computer to display a specific object in the virtual space image in a prescribed display mode when a display size of the specific object is greater than a prescribed size as the means for generating the virtual space image.SELECTED DRAWING: Figure 12

Description

本開示は、プログラム、及び情報処理システムに関する。 This disclosure relates to a program and an information processing system.

ユーザの操作入力に基づいてユーザオブジェクトを仮想空間内で移動させ、ユーザオブジェクトの移動に応じて移動する仮想カメラに基づいて、仮想空間画像を生成する技術が知られている。 A technology is known in which a user object is moved within a virtual space based on user input, and a virtual space image is generated based on a virtual camera that moves in accordance with the movement of the user object.

特許文献1には、仮想空間において、ユーザオブジェクトが障害物に隠れて見えなくなることを避けるため、仮想カメラと障害物との距離が所定距離以内である場合、当該障害物の透明度が徐々に増すように当該障害物の透明度を更新するゲームプログラムが開示されている。また、特許文献2には、仮想空間において、ユーザオブジェクトとバトルを行う敵キャラクタがフェードインして登場し、当該敵キャラクタがバトルにおいて残りダメージ値がゼロになって行動不能となった場合にフェードアウトして退場する画像描画装置が開示されている。 Patent Document 1 discloses a game program that updates the transparency of an obstacle so that the transparency of the obstacle gradually increases if the distance between the virtual camera and the obstacle is within a predetermined distance in order to prevent the user's object from becoming invisible behind the obstacle in the virtual space. Patent Document 2 discloses an image rendering device that fades in an enemy character that battles the user's object in a virtual space, and fades out when the enemy character's remaining damage value in the battle reaches zero and the character is unable to act.

特開2008-43589号公報JP 2008-43589 A 特開2005-149315号公報JP 2005-149315 A

ところで、仮想空間において、ユーザオブジェクトが移動して他のオブジェクトに近づく場合、またはユーザオブジェクトの周辺にサイズが大きい他のオブジェクトが存在する場合などでは、仮想空間画像に当該他のオブジェクトが鮮明に映り込むことがある。そして、当該他のオブジェクトが他人の著作物である可能性があり、このような他人の著作物の鮮明な映り込みを防止することのできる技術が望まれている。 However, when a user object moves close to another object in a virtual space, or when there is a large object nearby the user object, the other object may be clearly reflected in the virtual space image. There is a possibility that the other object may be the copyrighted work of another person, and there is a demand for technology that can prevent such a clear reflection of the copyrighted work of another person.

本開示は、仮想空間画像において他人の著作物が鮮明に映り込むことを防ぐことを目的とする。 The purpose of this disclosure is to prevent other people's copyrighted works from being clearly reflected in virtual space images.

本開示に示す一実施形態によれば、
コンピュータにより実行されるプログラムであって、
前記プログラムは、前記コンピュータを、
仮想空間を生成する手段と、
前記仮想空間に仮想カメラ、ユーザオブジェクト及び特定のオブジェクトを配置する手段と、
前記仮想カメラに基づいて、前記仮想空間の画像である仮想空間画像を生成する手段、として機能させ、
前記仮想空間画像を生成する手段として、
前記仮想空間画像における前記特定のオブジェクトの表示サイズが所定のサイズより大きい際に、前記特定のオブジェクトを所定の表示態様で表示させる、
プログラム、が提供される。
According to one embodiment shown in the present disclosure,
A program executed by a computer,
The program causes the computer to
A means for generating a virtual space;
means for placing a virtual camera, a user object, and a specific object in the virtual space;
a means for generating a virtual space image, which is an image of the virtual space, based on the virtual camera;
As a means for generating the virtual space image,
When a display size of the specific object in the virtual space image is larger than a predetermined size, the specific object is displayed in a predetermined display mode.
Programs are provided.

本開示に示す他の一実施形態によれば、
1または複数の情報処理装置を備える情報処理システムであって、
仮想空間を生成する処理と、
前記仮想空間に仮想カメラ、ユーザオブジェクト及び特定のオブジェクトを配置する処理と、
前記仮想カメラに基づいて、前記仮想空間の画像である仮想空間画像を生成する処理と、を行い、
前記仮想空間画像を生成する処理において、
前記仮想空間画像における前記特定のオブジェクトの表示サイズが所定のサイズより大きい際に、前記特定のオブジェクトを所定の表示態様で表示する、
情報処理システム、が提供される。
According to another embodiment of the present disclosure,
An information processing system including one or more information processing devices,
A process of generating a virtual space;
A process of placing a virtual camera, a user object, and a specific object in the virtual space;
A process of generating a virtual space image, which is an image of the virtual space, based on the virtual camera;
In the process of generating the virtual space image,
When a display size of the specific object in the virtual space image is larger than a predetermined size, the specific object is displayed in a predetermined display mode.
An information processing system is provided.

本開示に示す一実施形態によれば、仮想空間画像において他人の著作物が鮮明に映り込むことを防ぐことができる。 According to one embodiment of the present disclosure, it is possible to prevent other people's copyrighted work from being clearly reflected in a virtual space image.

図1は、本開示の第1の実施の形態に従うシステムの構成例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a system according to a first embodiment of the present disclosure. 図2は、図1に示すユーザ端末の機能的な構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of the user terminal shown in FIG. 図3は、図1に示すサーバの機能的な構成を示すブロック図である。FIG. 3 is a block diagram showing a functional configuration of the server shown in FIG. 図4は、比較例に係るプログラムが実行されることにより、図1に示すユーザ端末に表示される仮想空間画像の一例を示している。FIG. 4 shows an example of a virtual space image displayed on the user terminal shown in FIG. 1 by executing a program according to the comparative example. 図5は、本開示の第1の実施の形態に従う仮想空間の提供に係る処理の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of a process related to providing a virtual space according to the first embodiment of the present disclosure. 図6は、本開示の第1の実施の形態に従う仮想空間の一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of a virtual space according to the first embodiment of the present disclosure. 図7は、本開示の第1の実施の形態に従う表示画面の一例を示す模式図である。FIG. 7 is a schematic diagram showing an example of a display screen according to the first embodiment of the present disclosure. 図8は、本開示の第1の実施の形態の変形例1に従う表示画面の一例を示す模式図である。FIG. 8 is a schematic diagram illustrating an example of a display screen according to the first modification of the first embodiment of the present disclosure. 図9は、本開示の第2の実施の形態の比較例に従う表示画面の一例を示す模式図である。FIG. 9 is a schematic diagram illustrating an example of a display screen according to a comparative example of the second embodiment of the present disclosure. 図10は、本開示の第2の実施の形態に従う表示画面の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of a display screen according to the second embodiment of the present disclosure. 図11は、本開示の第2の実施の形態に従うプログラムの動作の流れの一例を示すフローチャートである。FIG. 11 is a flowchart showing an example of the operation flow of a program according to the second embodiment of the present disclosure. 図12は、本開示の第3の実施の形態に従う表示画面の一例を示す模式図である。FIG. 12 is a schematic diagram illustrating an example of a display screen according to the third embodiment of the present disclosure. 図13は、本開示の第3の実施の形態に従うプログラムの動作の流れの一例を示すフローチャートである。FIG. 13 is a flowchart showing an example of the operation flow of a program according to the third embodiment of the present disclosure.

以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の部品等には同一の符号を付してある。それらの名称及び機能も同じである。したがって、それらについての詳細な説明は繰り返さない。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。 The following describes in detail an embodiment of this technical idea with reference to the drawings. In the following description, the same components are given the same reference numerals. Their names and functions are also the same. Therefore, detailed descriptions thereof will not be repeated. In one or more embodiments shown in this disclosure, the elements included in each embodiment can be combined with each other, and the result of such combination is also considered to be part of the embodiment shown in this disclosure.

(システムの構成)
[第1の実施の形態]
以下、本開示に係る第1の実施の形態として、ユーザの操作入力に基づいてユーザオブジェクトを仮想空間内で移動させ、ユーザオブジェクトの移動に応じて移動する仮想カメラに基づいて生成される仮想空間画像をユーザに提供するシステムを例示して説明をする。
(System Configuration)
[First embodiment]
Below, as a first embodiment of the present disclosure, an example of a system will be described in which a user object is moved within a virtual space based on user operation input, and a virtual space image is provided to the user based on a virtual camera that moves in accordance with the movement of the user object.

仮想空間は、複数のユーザに共通のものであってもよいし、複数のユーザ毎に異なるものでもよい。すなわち、1つの仮想空間に複数のユーザオブジェクトが存在するようにしてもよいし、1つの仮想空間に1つのユーザオブジェクトが存在するようにしてもよい。また、仮想空間は、VR(Virtual Reality)、AR(Augmented Reality)、MR(Mixed Reality)及びSR(Substitutional Reality)等のXR技術を用いて生成されるものであってもよい。 The virtual space may be common to multiple users, or may be different for each of the multiple users. In other words, multiple user objects may exist in one virtual space, or one user object may exist in one virtual space. In addition, the virtual space may be generated using XR technology such as VR (Virtual Reality), AR (Augmented Reality), MR (Mixed Reality), and SR (Substitutional Reality).

図1は、本開示の第1の実施の形態に従うシステム(情報処理システム)1の構成例を示す図である。図1に示すように、システム1は、複数のユーザがそれぞれ使用するユーザ端末10A,10B,10Cと、サーバ20と、を含み、これらの装置がネットワーク30によって互いに通信可能に接続されている。 FIG. 1 is a diagram showing an example of the configuration of a system (information processing system) 1 according to a first embodiment of the present disclosure. As shown in FIG. 1, the system 1 includes user terminals 10A, 10B, and 10C used by multiple users, respectively, and a server 20, and these devices are connected to each other via a network 30 so as to be able to communicate with each other.

ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。以下、ユーザ端末10A,10B,10Cなどのユーザ端末を総称して「ユーザ端末10」とも称する。なお、ユーザ端末10は、有線通信によりネットワーク30と接続する構成であってもよい。 User terminal 10A and user terminal 10B connect to network 30 by communicating with wireless base station 31. User terminal 10C connects to network 30 by communicating with wireless router 32 installed in a facility such as a house. Hereinafter, user terminals such as user terminals 10A, 10B, and 10C are collectively referred to as "user terminal 10." Note that user terminal 10 may be configured to connect to network 30 by wired communication.

ユーザ端末10は、ユーザが使用するコンピュータ(情報処理装置)である。ユーザ端末10は、携帯型の情報端末であってもよいし、PC(Personal Computer)又はゲーム機等の設置型の情報端末であってもよい。ユーザ端末10は、タッチスクリーンを備えていてもよいし、備えていなくてもよい。また、ユーザ端末10は、ARゴーグル及びARグラスを含むHMD(Head-Mounted Device)であってもよいし、コンタクトレンズのように目に装着可能なコンタクト型のデバイスであってもよい。以下では、ユーザ端末10がタッチスクリーンを備える携帯型端末であり、具体的には、スマートフォン、ファブレット又はタブレットなどであるものとして、説明をする。 The user terminal 10 is a computer (information processing device) used by a user. The user terminal 10 may be a portable information terminal, or a stationary information terminal such as a PC (Personal Computer) or a game console. The user terminal 10 may or may not have a touch screen. The user terminal 10 may also be a head-mounted device (HMD) including AR goggles and AR glasses, or a contact-type device that can be worn on the eyes like contact lenses. In the following, the user terminal 10 will be described as a portable terminal with a touch screen, specifically, a smartphone, a phablet, a tablet, or the like.

ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してインストールされたアプリケーションプログラムを実行する。なお、ユーザ端末10は、アプリケーションプログラムを実行する代わりに、ウェブサイト閲覧用ソフトウェア、すなわちウェブブラウザを介して取得されるプログラムを実行してもよい。 The user terminal 10 executes, for example, an application program installed via a platform that distributes apps and the like. Note that instead of executing an application program, the user terminal 10 may execute software for browsing websites, i.e., a program obtained via a web browser.

ユーザ端末10は、アプリケーションプログラム等のプログラムの実行により、仮想空間画像を生成し、当該仮想空間画像を表示部へ出力することを可能とする。ユーザ端末10は、仮想空間画像の生成にあたって、必要に応じてサーバ20との間で各種データを送受信しうる。 The user terminal 10 is capable of generating a virtual space image and outputting the virtual space image to a display unit by executing a program such as an application program. When generating the virtual space image, the user terminal 10 can transmit and receive various data to and from the server 20 as necessary.

サーバ20は、仮想空間画像の生成に必要なデータを、適宜、ユーザ端末10へ送信する。サーバ20は、ユーザに関する各種データを管理する。サーバ20は、例えば、ユーザの操作入力に関する情報をユーザ端末10から受信し、受信した情報に応じた処理を実行する。 The server 20 transmits data necessary for generating a virtual space image to the user terminal 10 as appropriate. The server 20 manages various data related to the user. For example, the server 20 receives information related to the user's operation input from the user terminal 10 and executes processing according to the received information.

サーバ20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29と、を備え、これらが通信バスを介して互いに接続されている。 The server 20 has a hardware configuration including a communication IF (Interface) 22, an input/output IF 23, a memory 25, a storage 26, and a processor 29, which are connected to each other via a communication bus.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。 The communication IF 22 supports various communication standards, such as the LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data between external communication devices such as the user terminal 10.

入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス及びキーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部と、を含む。 The input/output IF 23 functions as an interface for accepting input of information to the server 20 and outputting information to the outside of the server 20. The input/output IF 23 includes an input accepting unit that accepts connection of information input devices such as a mouse and a keyboard, and an output unit that accepts connection of information output devices such as a display for displaying images, etc.

メモリ25は、サーバ20における処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)又はRAM(Random Access Memory)等の記憶装置を含んで構成されている。 Memory 25 is a storage device for storing data and the like used in processing in server 20. Memory 25 provides processor 29 with a working area for temporary use when processor 29 performs processing, for example. Memory 25 is configured to include a storage device such as ROM (Read Only Memory) or RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26は、HDD(Hard Disk Drive)又はフラッシュメモリ等の記憶装置を含んで構成されている。 Storage 26 is a storage device for storing various programs and data to be read and executed by processor 29. Storage 26 is configured to include a storage device such as a HDD (Hard Disk Drive) or a flash memory.

プロセッサ29は、ストレージ26に記憶されるプログラムを読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)又はGPU(Graphics Processing Unit)等を含んで構成されている。 The processor 29 controls the operation of the server 20 by reading and executing programs stored in the storage 26. The processor 29 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a GPU (Graphics Processing Unit).

(ユーザ端末の構成)
図2は、図1に示すユーザ端末10の機能的な構成を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190と、を含む。
(Configuration of user terminal)
Fig. 2 is a block diagram showing a functional configuration of the user terminal 10 shown in Fig. 1. As shown in Fig. 2, the user terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input/output IF 140, a storage unit 150, a voice processing unit 160, a microphone 170, a speaker 180, and a control unit 190.

アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。 The antenna 110 radiates the signal emitted by the user terminal 10 into space as radio waves. The antenna 110 also receives radio waves from space and provides the received signal to the wireless communication IF 120.

無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー及び高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調及び周波数変換を行い、受信信号を制御部190へ与える。 The wireless communication IF 120 performs modulation and demodulation processing for transmitting and receiving signals via the antenna 110 etc. so that the user terminal 10 can communicate with other communication devices. The wireless communication IF 120 is a communication module for wireless communication that includes a tuner and a high-frequency circuit etc., performs modulation and demodulation and frequency conversion of the wireless signals transmitted and received by the user terminal 10, and provides the received signals to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対する情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるためのタッチパネル131と、メニュー画面及び仮想空間画像等を画面に表示するためのディスプレイ132と、を含む。タッチパネル131は、例えば、静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出しうる。ディスプレイ132は、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)又はその他の表示装置によって実現される。 The touch screen 130 accepts input from the user and outputs information for the user to the display 132. The touch screen 130 includes a touch panel 131 for accepting input operations from the user, and a display 132 for displaying a menu screen, a virtual space image, and the like on the screen. The touch panel 131 can detect the approach of a user's finger, for example, by using a capacitive touch panel. The display 132 can be realized, for example, by an LCD (Liquid Crystal Display), an organic EL (Electroluminescence), or other display device.

入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。 The input/output IF 140 accepts information input to the user terminal 10 and functions as an interface for outputting information outside the user terminal 10.

記憶部150は、フラッシュメモリ又はRAM等により構成される。記憶部150は、ユーザ端末10がサーバ20から受信する各種データを記憶しうる。記憶部150は、仮想空間画像をユーザに提供しうるプログラム151と、仮想空間情報152と、ユーザ情報153と、を記憶する。 The storage unit 150 is configured with a flash memory, a RAM, or the like. The storage unit 150 can store various data that the user terminal 10 receives from the server 20. The storage unit 150 stores a program 151 that can provide a virtual space image to a user, virtual space information 152, and user information 153.

仮想空間情報152は、例えば、仮想空間を生成するための情報を含む。また、仮想空間情報152は、例えば、仮想空間に配置される仮想カメラ及びユーザオブジェクト等の各種の仮想オブジェクトを生成するための情報を含む。また、仮想空間情報152は、例えば、各種の仮想オブジェクトを仮想空間に配置するための配置情報を含む。ユーザ情報153は、例えば、ユーザ端末10を識別する端末ID(Identification)、及びユーザを識別するユーザID情報等を含む。 The virtual space information 152 includes, for example, information for generating a virtual space. The virtual space information 152 also includes, for example, information for generating various virtual objects, such as a virtual camera and a user object, that are placed in the virtual space. The virtual space information 152 also includes, for example, placement information for placing various virtual objects in the virtual space. The user information 153 includes, for example, a terminal ID (Identification) that identifies the user terminal 10, and user ID information that identifies the user.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。 The audio processing unit 160 modulates and demodulates audio signals. The audio processing unit 160 modulates the signal provided by the microphone 170 and provides the modulated signal to the control unit 190. The audio processing unit 160 also provides the audio signal to the speaker 180. The audio processing unit 160 is realized, for example, by a processor for audio processing. The microphone 170 functions as an audio input unit that receives input of an audio signal and outputs it to the control unit 190. The speaker 180 functions as an audio output unit that outputs the audio signal to the outside of the user terminal 10.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサなどのプロセッサによって実現される。 The control unit 190 controls the operation of the user terminal 10 by reading and executing programs stored in the storage unit 150. The control unit 190 is realized by a processor such as an application processor, for example.

制御部190は、プログラム151を読み込んで実行することにより、入力操作受付部191と、送受信部192と、空間生成部193と、配置部194と、移動制御部195と、画像生成部196と、の各機能を発揮する。ある局面において、制御部190は、サーバ20との間で各種情報の送受信を行いながら、仮想空間画像を生成する。 The control unit 190 loads and executes the program 151 to perform the functions of an input operation reception unit 191, a transmission/reception unit 192, a space generation unit 193, a placement unit 194, a movement control unit 195, and an image generation unit 196. In one aspect, the control unit 190 generates a virtual space image while transmitting and receiving various information to and from the server 20.

入力操作受付部191は、タッチスクリーン130からの出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸及び縦軸からなる座標系の座標として検出する。 The input operation reception unit 191 receives input operations from the user based on the output from the touch screen 130. Specifically, the input operation reception unit 191 detects the approach of the user's finger or the like to the touch panel 131 as coordinates in a coordinate system consisting of the horizontal and vertical axes of the surface that constitutes the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。具体的には、入力操作受付部191は、いわゆる「接近操作」、「リリース操作」、「タップ操作」、「ダブルタップ操作」、「長押し操作(ロングタッチ操作)」、「ドラッグ操作(スワイプ操作)」、「ムーブ操作」、及び「フリック操作」などのユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザが押下した圧力の大きさを判別する。 The input operation reception unit 191 determines the user's operation on the touch screen 130. Specifically, the input operation reception unit 191 determines user operations such as so-called "approach operation," "release operation," "tap operation," "double tap operation," "long press operation (long touch operation)," "drag operation (swipe operation)," "move operation," and "flick operation." The user operations determined by the input operation reception unit 191 are not limited to those described above. For example, if the touch panel 131 has a mechanism capable of detecting the magnitude of pressure applied by the user to the touch panel 131, the input operation reception unit 191 determines the magnitude of pressure applied by the user.

送受信部192は、サーバ20から各種情報を受信し、また、サーバ20に対して各種情報を送信する。送受信部192は、例えば、サーバ20から仮想空間情報252の少なくとも一部を受信する。一例として、送受信部192は、他のユーザが操作する他ユーザオブジェクトに関する他ユーザオブジェクト情報をサーバ20から受信する。送受信部192は、例えば、ユーザオブジェクトの移動やその他の行動に関する情報をサーバ20へ送信する。 The transmission/reception unit 192 receives various information from the server 20 and transmits various information to the server 20. The transmission/reception unit 192 receives, for example, at least a portion of the virtual space information 252 from the server 20. As an example, the transmission/reception unit 192 receives other user object information related to other user objects operated by other users from the server 20. The transmission/reception unit 192 transmits, for example, information related to the movement of user objects and other actions to the server 20.

空間生成部193は、仮想空間情報152を参照し、仮想空間を生成する。また、空間生成部193は、仮想空間に配置される仮想カメラ及びユーザオブジェクト等の仮想オブジェクトを生成する。空間生成部193によって生成される仮想オブジェクトには、他のユーザによって操作される他ユーザオブジェクト、及び動画を表示するためのスクリーンオブジェクト等が含まれうる。 The space generation unit 193 generates a virtual space by referring to the virtual space information 152. The space generation unit 193 also generates virtual objects such as a virtual camera and a user object to be placed in the virtual space. The virtual objects generated by the space generation unit 193 may include other user objects operated by other users, and screen objects for displaying videos.

配置部194は、仮想空間情報152に含まれる配置情報を参照し、仮想空間に仮想カメラ及びユーザオブジェクト等の各種の仮想オブジェクトを配置する。例えば、配置部194は、他ユーザオブジェクト情報に基づいて、仮想空間に他ユーザオブジェクトを配置する。また、配置部194は、サーバ20から送信される情報等に基づいて、他ユーザオブジェクト及びその他の仮想オブジェクトを移動させる。 The placement unit 194 places various virtual objects, such as a virtual camera and a user object, in the virtual space by referring to the placement information included in the virtual space information 152. For example, the placement unit 194 places other user objects in the virtual space based on other user object information. In addition, the placement unit 194 moves other user objects and other virtual objects based on information transmitted from the server 20, etc.

移動制御部195は、ユーザオブジェクトを移動させるための移動操作(以下、単に「移動操作」とも称する)が行われたことに基づいて、仮想空間内においてユーザオブジェクトを移動させる。例えば、移動制御部195は、入力操作受付部191が受け付けた入力操作の入力位置の座標及び操作の種類に基づいてユーザの指示内容を解釈し、当該解釈に基づいて、ユーザオブジェクトを移動させる。 The movement control unit 195 moves the user object in the virtual space based on a movement operation for moving the user object (hereinafter also simply referred to as a "movement operation"). For example, the movement control unit 195 interprets the user's instruction based on the coordinates of the input position of the input operation accepted by the input operation acceptance unit 191 and the type of operation, and moves the user object based on the interpretation.

画像生成部196は、仮想カメラに基づいて、仮想カメラから仮想空間内を撮像した画像である仮想空間画像を生成する。画像生成部196が生成した仮想空間画像は、タッチスクリーン130に出力され、ディスプレイ132上に表示される。 The image generation unit 196 generates a virtual space image, which is an image captured within the virtual space by the virtual camera, based on the virtual camera. The virtual space image generated by the image generation unit 196 is output to the touch screen 130 and displayed on the display 132.

画像生成部196は、移動操作がされていない場合、すなわちユーザオブジェクトが停止状態である場合、仮想空間画像の生成において当該ユーザオブジェクトを透明にする。一方、画像生成部196は、移動操作がされている場合、すなわちユーザオブジェクトが移動状態である場合、仮想空間画像の生成において当該ユーザオブジェクトを不透明にする。 When no movement operation has been performed, i.e., when the user object is stationary, the image generation unit 196 makes the user object transparent when generating the virtual space image. On the other hand, when a movement operation has been performed, i.e., when the user object is moving, the image generation unit 196 makes the user object opaque when generating the virtual space image.

また、画像生成部196は、仮想空間画像におけるユーザオブジェクトを不透明から透明にする場合、当該ユーザオブジェクトの透明度を徐々に上げることが好ましい。すなわち、画像生成部196は、ユーザオブジェクトが移動状態から停止状態へ移行する場合、当該ユーザオブジェクトが不透明から透明に徐々に変化するようにフェードアウト処理をしてもよい。フェードアウト処理が行われる期間は、例えば0.1秒~2秒程度である。 When changing a user object in a virtual space image from opaque to transparent, it is preferable that the image generation unit 196 gradually increases the transparency of the user object. In other words, when a user object transitions from a moving state to a stationary state, the image generation unit 196 may perform a fade-out process so that the user object gradually changes from opaque to transparent. The period during which the fade-out process is performed is, for example, about 0.1 to 2 seconds.

また、画像生成部196は、仮想空間画像におけるユーザオブジェクトを透明から不透明にする場合、当該ユーザオブジェクトの透明度を徐々に下げることが好ましい。すなわち、画像生成部196は、ユーザオブジェクトが停止状態から移動状態へ移行する場合、当該ユーザオブジェクトが透明から不透明に徐々に変化するようにフェードイン処理をしてもよい。フェードイン処理が行われる期間は、例えば0.1秒~2秒程度である。 When changing a user object in a virtual space image from transparent to opaque, it is preferable that the image generation unit 196 gradually decreases the transparency of the user object. In other words, when a user object transitions from a stationary state to a moving state, the image generation unit 196 may perform a fade-in process so that the user object gradually changes from transparent to opaque. The period during which the fade-in process is performed is, for example, about 0.1 to 2 seconds.

また、画像生成部196は、移動操作の開始後の第一期間において、ユーザオブジェクトが移動に伴う動作である付随動作を行うように仮想空間画像を生成することが好ましい。また、画像生成部196は、移動操作の終了後の第二期間において、ユーザオブジェクトが停止に伴う動作である付随動作を行うように仮想空間画像を生成することが好ましい。第一期間と第二期間とは、同じ長さであってもよいし、互い異なる長さであってもよい。また、画像生成部196は、ユーザオブジェクトに行わせる付随動作の種類に応じて、第一期間及び第二期間の少なくとも一方の長さを変化させてもよい。 In addition, it is preferable that the image generating unit 196 generates a virtual space image so that the user object performs an accompanying action that accompanies the movement during a first period after the start of the movement operation. In addition, it is preferable that the image generating unit 196 generates a virtual space image so that the user object performs an accompanying action that accompanies the stop during a second period after the end of the movement operation. The first period and the second period may be the same length or may be different lengths. In addition, the image generating unit 196 may change the length of at least one of the first period and the second period depending on the type of accompanying action to be performed by the user object.

付随動作には、ユーザオブジェクトの姿勢の変更が含まれる。例えば、ユーザオブジェクトの移動に伴う付随動作である準備動作には、ユーザオブジェクトの上半身を傾ける動作、腕を曲げる動作、及びジャンプの前に膝を曲げる動作など、人間が動き出す際に通常行う動作が含まれる。また、例えば、ユーザオブジェクトの停止に伴う付随動作である余韻動作には、傾いている上半身を起こす動作、腕を伸ばす動作、及び膝を伸ばす動作など、人間が動きを止める際に通常行う動作が含まれる。 Accompanying actions include changes in the posture of the user object. For example, preparatory actions, which are accompanying actions associated with the movement of a user object, include actions that humans normally perform when starting to move, such as tilting the upper body of the user object, bending the arms, and bending the knees before jumping. Also, for example, aftertaste actions, which are accompanying actions associated with the stopping of a user object, include actions that humans normally perform when stopping movement, such as raising a tilted upper body, stretching the arms, and straightening the knees.

なお、ユーザオブジェクトが、準備動作として上半身を傾ける動作を行い、余韻動作として上半身を起こす動作を行う場合、当該ユーザオブジェクトの動きの変化が分かりやすく、停止状態と移動状態との間における動作の差をより効果的に補完することができる。このため、準備動作として上半身を傾ける動作が行われ、余韻動作として上半身を起こす動作が実行されることが好ましい。 When a user object tilts its upper body as a preparatory movement and raises its upper body as a lingering movement, the change in the user object's movement is easy to understand, and the difference in movement between a stopped state and a moving state can be more effectively complemented. For this reason, it is preferable that the preparatory movement is to tilt the upper body, and the upper body is to be raised as a lingering movement.

また、画像生成部196は、移動操作の開始前後及び移動操作の終了前後において、仮想カメラとユーザオブジェクトとの距離を一定に保つことが好ましい。なお、一定には、若干の誤差が含まれる。 It is also preferable that the image generation unit 196 maintains a constant distance between the virtual camera and the user object before and after the start of a movement operation and before and after the end of the movement operation. Note that "constant" includes some degree of error.

(サーバの構成)
図3は、図1に示すサーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、プログラム251に従って動作することにより、通信部220と、記憶部250と、制御部290と、としての機能を発揮する。
(Server configuration)
Fig. 3 is a block diagram showing the functional configuration of the server 20 shown in Fig. 1. The detailed configuration of the server 20 will be described with reference to Fig. 3. The server 20 operates according to a program 251 to fulfill the functions of a communication unit 220, a storage unit 250, and a control unit 290.

通信部220は、サーバ20がユーザ端末10などの外部の通信機器とネットワーク30を介して通信するためのインタフェースとして機能する。 The communication unit 220 functions as an interface for the server 20 to communicate with external communication devices such as the user terminal 10 via the network 30.

記憶部250は、サーバ20を動作させるための各種プログラム及びデータを記憶する。ある局面において、記憶部250は、プログラム251と、仮想空間情報252と、ユーザ情報253と、を記憶する。 The storage unit 250 stores various programs and data for operating the server 20. In one aspect, the storage unit 250 stores a program 251, virtual space information 252, and user information 253.

プログラム251は、ユーザ端末10を介して仮想空間画像をユーザに提供するためのプログラムである。例えば、プログラム251は、仮想空間情報252及びユーザ情報253等を参照して、仮想空間画像をユーザに提供するためのサーバ20側における各種処理を実行する。 The program 251 is a program for providing a virtual space image to a user via the user terminal 10. For example, the program 251 refers to the virtual space information 252 and the user information 253, etc., and executes various processes on the server 20 side for providing the virtual space image to the user.

仮想空間情報252は、例えば、仮想空間を生成するための情報、及び仮想空間に配置される各種の仮想オブジェクトを生成するための情報を含む。仮想空間情報252の少なくとも一部は、仮想空間情報152の元となる情報である。仮想空間情報252には、各ユーザオブジェクトの仮想空間における位置及び行動に関する情報が含まれうる。また、仮想空間情報252には、動画に関する情報が含まれうる。 The virtual space information 252 includes, for example, information for generating a virtual space and information for generating various virtual objects to be placed in the virtual space. At least a portion of the virtual space information 252 is the information that forms the basis of the virtual space information 152. The virtual space information 252 may include information regarding the position and behavior of each user object in the virtual space. The virtual space information 252 may also include information regarding videos.

ユーザ情報253は、各ユーザ端末10のユーザに関する情報である。例えば、ユーザ情報253は、ユーザ端末10又はユーザ端末10のユーザを識別する情報、及びその他の情報を含む。 User information 253 is information about the user of each user terminal 10. For example, user information 253 includes information that identifies the user terminal 10 or the user of the user terminal 10, and other information.

制御部290は、記憶部250に記憶されるプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、及び計時部294としての機能を発揮する。 The control unit 290 executes the program 251 stored in the memory unit 250 to perform the functions of a transmission/reception unit 291, a server processing unit 292, a data management unit 293, and a timing unit 294.

送受信部291は、ユーザ端末10から各種情報を受信し、また、ユーザ端末10に対して各種情報を送信する。ユーザ端末10とサーバ20とは、例えば、仮想空間及び仮想オブジェクトの生成に関する情報、ユーザオブジェクトの移動及びその他の行動に関する情報、並びに動画の再生に関する情報などを送受信する。 The transmission/reception unit 291 receives various information from the user terminal 10 and transmits various information to the user terminal 10. The user terminal 10 and the server 20 transmit and receive, for example, information related to the generation of the virtual space and virtual objects, information related to the movement and other actions of the user object, and information related to the playback of videos.

サーバ処理部292は、ユーザ端末10を介してユーザに仮想空間を提供するためにサーバ20において必要となる各種の処理を行う。サーバ処理部292は、送受信部291が受信したユーザ端末10からの各種要求に応じて、送受信部291に対して各種データの送信を指示する。また、サーバ処理部292は、サーバ処理部292による各種の演算結果に基づいて、データ管理部293に対して各種データの更新を指示する。 The server processing unit 292 performs various processes required by the server 20 to provide a virtual space to a user via the user terminal 10. The server processing unit 292 instructs the transmission/reception unit 291 to transmit various data in response to various requests from the user terminal 10 received by the transmission/reception unit 291. The server processing unit 292 also instructs the data management unit 293 to update various data based on the results of various calculations performed by the server processing unit 292.

データ管理部293は、サーバ処理部292からの指示に基づいて、記憶部250に記憶される各種データを追加、削除又は更新する処理を行う。計時部294は、時間を計測する処理を行う。また、計時部294は、例えば、複数のユーザ端末10において各種の時間に関する情報を同期させる処理を実行する。 The data management unit 293 performs processing to add, delete, or update various data stored in the storage unit 250 based on instructions from the server processing unit 292. The clock unit 294 performs processing to measure time. In addition, the clock unit 294 executes processing to synchronize various types of time-related information in multiple user terminals 10, for example.

(比較例)
次に、図4を参照して、比較例に係るプログラムが実行されることにより生成される仮想空間画像について説明する。図4は、比較例に係るプログラムが実行されることにより、ユーザ端末10のディスプレイ132に表示される仮想空間画像の一例を示している。
Comparative Example
Next, a virtual space image generated by executing a program according to a comparative example will be described with reference to Fig. 4. Fig. 4 shows an example of a virtual space image displayed on the display 132 of the user terminal 10 by executing a program according to the comparative example.

ユーザ端末10における制御部190は、比較例に係るプログラムを実行することにより、仮想空間画像を生成すると仮定する。このとき、制御部190は、ユーザによる移動操作の有無に関わらず、ユーザオブジェクト802を不透明にする。すなわち、制御部190は、ユーザオブジェクト802が移動状態である場合だけでなく、停止状態である場合においても、仮想空間画像においてユーザオブジェクト802を不透明にする。 It is assumed that the control unit 190 in the user terminal 10 generates a virtual space image by executing a program according to the comparative example. At this time, the control unit 190 makes the user object 802 opaque regardless of whether or not the user performs a movement operation. In other words, the control unit 190 makes the user object 802 opaque in the virtual space image not only when the user object 802 is in a moving state, but also when the user object 802 is in a stationary state.

ここで、仮想空間には、仮想オブジェクトの一例であるスクリーンオブジェクト807が配置されているとする。制御部190は、ユーザオブジェクト802がスクリーンオブジェクト807の近傍に設定されたトリガ領域内に侵入した場合、スクリーンオブジェクト807において動画の再生を開始する。そして、ユーザオブジェクト802がトリガ領域内で停止状態であることにより、スクリーンオブジェクト807において動画の再生が継続される。 Here, it is assumed that a screen object 807, which is an example of a virtual object, is placed in the virtual space. When the user object 802 enters a trigger area set near the screen object 807, the control unit 190 starts playing a video on the screen object 807. Then, since the user object 802 is stopped within the trigger area, the playback of the video on the screen object 807 continues.

動画の再生形式は、サーバ20から動画情報を都度取得するストリーミング形式でもよいし、記憶部150に動画情報を予めダウンロードしておくダウンロード形式であってもよい。動画の再生は、音声の出力を伴ってなされることが好ましい。 The video may be played back in a streaming format, in which video information is acquired from the server 20 each time, or in a download format, in which video information is downloaded in advance to the storage unit 150. It is preferable that the video be played back with audio output.

このように、スクリーンオブジェクト807において動画の再生が行われる場合において、上述のとおりユーザオブジェクト802が不透明である場合、スクリーンオブジェクト807の一部がユーザオブジェクト802に隠れることにより、ユーザにおいて動画の一部を見ることができない事態が生じうる。そこで、本開示に係るプログラムでは、以下のような動作により、このような課題を解決する。 In this way, when a video is played on the screen object 807, if the user object 802 is opaque as described above, a part of the screen object 807 may be hidden by the user object 802, causing the user to be unable to see part of the video. Therefore, the program disclosed herein solves this problem by performing the following operations.

(プログラムの動作例)
(a)動作の流れ
次に、図5から図7を参照して、本開示の第1の実施の形態に係るプログラムにおける動作例について説明する。以降で説明する各処理は、ユーザ端末10における制御部190がプログラム151を、サーバ20における制御部290がプログラム251をそれぞれ実行することにより実現される。
(Example of program operation)
(a) Operation flow Next, an operation example of the program according to the first embodiment of the present disclosure will be described with reference to Fig. 5 to Fig. 7. Each process described below is realized by the control unit 190 in the user terminal 10 executing the program 151, and the control unit 290 in the server 20 executing the program 251.

なお、本明細書で説明する各フローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同であり、並列的に実行されてもよい。また、本明細書で説明する各フローチャートを構成する処理の一部は、省略してもよい。 The order of the processes constituting each flowchart described in this specification may be random and may be executed in parallel as long as no contradictions or inconsistencies occur in the process content. Also, some of the processes constituting each flowchart described in this specification may be omitted.

図5は、本開示の第1の実施の形態に従う仮想空間の提供に係る処理の一例を示すフローチャートである。まず、ステップS110において、制御部190は、仮想空間情報152を参照し、仮想空間を生成する。同様に、制御部190は、仮想カメラ及びユーザオブジェクトを含む仮想オブジェクトを生成する。制御部190は、仮想空間及び仮想オブジェクトの生成において、必要に応じてサーバ20から仮想空間情報252等の各種情報を受信してもよい。 FIG. 5 is a flowchart showing an example of a process related to providing a virtual space according to the first embodiment of the present disclosure. First, in step S110, the control unit 190 generates a virtual space by referring to the virtual space information 152. Similarly, the control unit 190 generates virtual objects including a virtual camera and a user object. In generating the virtual space and virtual objects, the control unit 190 may receive various information such as the virtual space information 252 from the server 20 as necessary.

ステップS120において、制御部190は、仮想空間情報152に含まれる配置情報を参照し、仮想空間に仮想オブジェクトを配置する。このとき、制御部190は、ユーザオブジェクトから所定距離の位置に仮想カメラを配置する。 In step S120, the control unit 190 places a virtual object in the virtual space by referring to the placement information included in the virtual space information 152. At this time, the control unit 190 places a virtual camera at a predetermined distance from the user object.

ステップS130において、制御部190は、仮想空間画像を生成する。このとき、制御部190は、ユーザオブジェクトを透明にする。そして、制御部190は、生成した仮想空間画像をディスプレイ132に表示する。 In step S130, the control unit 190 generates a virtual space image. At this time, the control unit 190 makes the user object transparent. Then, the control unit 190 displays the generated virtual space image on the display 132.

仮想空間画像は、仮想カメラに基づく画像であり、仮想カメラから仮想空間内を撮像した画像である。また、仮想カメラの視線方向は、ユーザによって仮想カメラの向きを変更するための入力操作がされたことに基づいて変更されうる。例えば、仮想カメラは、ユーザオブジェクトとの距離を維持しながら、ユーザによる入力操作に応じた位置に移動する。 The virtual space image is an image based on a virtual camera, and is an image captured within the virtual space by the virtual camera. The line of sight direction of the virtual camera can be changed based on an input operation performed by the user to change the orientation of the virtual camera. For example, the virtual camera moves to a position according to the input operation by the user while maintaining a distance from the user object.

制御部190は、ユーザオブジェクトの移動操作を検出しない場合(ステップS140において「NO」)、ユーザオブジェクトを透明で表示することを継続する。そして、制御部190は、プログラム151を終了するための入力操作を受け付けたこと等に応じて、一連の処理を終了する。 If the control unit 190 does not detect a movement operation of the user object ("NO" in step S140), the control unit 190 continues to display the user object transparently. Then, the control unit 190 ends the series of processes in response to receiving an input operation to end the program 151, etc.

一方、制御部190は、ユーザオブジェクトの移動操作を検出した場合(ステップS140において「YES」)、ステップS150において、ユーザオブジェクトを徐々に不透明にするフェードイン処理を開始する。なお、制御部190は、ユーザによる移動操作を検出した場合、必要に応じて、移動後のユーザオブジェクトの位置を特定するための情報をサーバ20へ送信する。 On the other hand, if the control unit 190 detects a movement operation of the user object ("YES" in step S140), in step S150, the control unit 190 starts a fade-in process that gradually makes the user object opaque. When the control unit 190 detects a movement operation by the user, it transmits information to the server 20 as necessary to identify the position of the user object after the movement.

ステップS160において、制御部190は、ユーザオブジェクトに対して移動に伴う準備動作を実行させる。 In step S160, the control unit 190 causes the user object to perform preparatory actions associated with the movement.

ステップS170において、制御部190は、ユーザオブジェクトを移動させる処理を行う。また、制御部190は、ユーザオブジェクトの移動と連動するように、ユーザオブジェクトと同じ移動速度で仮想カメラを移動させる処理を行う。これにより、ユーザオブジェクトと仮想カメラとは、相対的な位置関係を維持したままで移動する。 In step S170, the control unit 190 performs processing to move the user object. The control unit 190 also performs processing to move the virtual camera at the same movement speed as the user object so as to be linked with the movement of the user object. As a result, the user object and the virtual camera move while maintaining their relative positional relationship.

制御部190は、ユーザオブジェクトの移動操作の終了を検出しない場合(ステップS180において「NO」)、ステップS170に戻り、ユーザオブジェクト及び仮想カメラを移動させる処理を継続する。 If the control unit 190 does not detect the end of the user object movement operation ("NO" in step S180), it returns to step S170 and continues the process of moving the user object and the virtual camera.

一方、制御部190は、ユーザオブジェクトの移動操作の終了を検出した場合(ステップS180において「YES」)、ステップS190において、ユーザオブジェクト及び仮想カメラの移動を停止させる処理を行う。 On the other hand, if the control unit 190 detects the end of the user object movement operation ("YES" in step S180), it performs processing to stop the movement of the user object and the virtual camera in step S190.

ステップS200において、制御部190は、ユーザオブジェクトを徐々に透明にするフェードアウト処理を開始する。 In step S200, the control unit 190 starts a fade-out process that gradually makes the user object transparent.

ステップS210において、制御部190は、ユーザオブジェクトに対して停止に伴う余韻動作を実行させる。そして、制御部190は、プログラム151を終了するための入力操作を受け付けたこと等に応じて、一連の処理を終了する。 In step S210, the control unit 190 causes the user object to execute an afterglow action associated with the stop. Then, the control unit 190 ends the series of processes in response to receiving an input operation to end the program 151, etc.

(b)仮想空間及び仮想空間画像の説明
以下、図6及び図7を用いて、図5に示した一連の処理において生成される仮想空間及び仮想空間画像について説明する。図6は、本開示の第1の実施の形態に従う仮想空間501の一例を示す模式図である。図6において、仮想空間501には、ユーザオブジェクト502と、仮想カメラ503と、柱オブジェクト504と、他ユーザオブジェクト506と、が配置されている。
(b) Description of Virtual Space and Virtual Space Image Hereinafter, the virtual space and the virtual space image generated in the series of processes shown in Fig. 5 will be described with reference to Fig. 6 and Fig. 7. Fig. 6 is a schematic diagram showing an example of a virtual space 501 according to the first embodiment of the present disclosure. In Fig. 6, a user object 502, a virtual camera 503, a pillar object 504, and another user object 506 are arranged in the virtual space 501.

ユーザオブジェクト502は、ユーザが操作可能なオブジェクトであり、例えばユーザのアバターである。他ユーザオブジェクト506は、他のユーザが操作可能なオブジェクトであり、例えば他のユーザのアバターである。仮想カメラ503は、仮想空間501を撮像する仮想オブジェクトである。柱オブジェクト504は、仮想空間501に固定配置される仮想オブジェクトである。 The user object 502 is an object that can be operated by the user, for example, the user's avatar. The other user object 506 is an object that can be operated by another user, for example, the other user's avatar. The virtual camera 503 is a virtual object that captures an image of the virtual space 501. The pillar object 504 is a virtual object that is fixedly positioned in the virtual space 501.

(b-1)停止状態から移動状態へ移行する場合の仮想空間画像
図7は、本開示の第1の実施の形態に従う表示画面の一例を示す模式図である。具体的には、図7の(a)は、ユーザオブジェクト502が停止状態であるときの表示画面を示している。図7の(b)は、ユーザオブジェクト502が付随動作を実行しているときの表示画面を示している。図7の(c)は、ユーザオブジェクト502が移動状態であるときの表示画面を示している。
(b-1) Virtual space image when transitioning from a stopped state to a moving state Fig. 7 is a schematic diagram showing an example of a display screen according to the first embodiment of the present disclosure. Specifically, Fig. 7(a) shows a display screen when the user object 502 is in a stopped state. Fig. 7(b) shows a display screen when the user object 502 is performing an associated action. Fig. 7(c) shows a display screen when the user object 502 is in a moving state.

図7の(a)は、ユーザオブジェクト502の移動操作が行われる前の状態(図5に示すステップS130)において表示される仮想空間画像を示す。当該仮想空間画像において、停止状態であるユーザオブジェクト502は透明であり、表示されていない。なお、ユーザオブジェクト502の所有物がある場合には、当該所有物も表示されない。 Figure 7 (a) shows a virtual space image displayed in a state before the user object 502 is moved (step S130 shown in Figure 5). In this virtual space image, the user object 502, which is in a stationary state, is transparent and not displayed. Note that if the user object 502 has any possessions, those possessions are not displayed either.

他ユーザオブジェクト506は、移動状態であるか否かに関わらず、ユーザオブジェクト502を操作するユーザのディスプレイ132上に表示される。例えば、図7の(a)では他ユーザオブジェクト506は立ち止まっており移動をしていないが、ディスプレイ132上に表示されている。 The other user object 506 is displayed on the display 132 of the user who is operating the user object 502, regardless of whether it is moving or not. For example, in FIG. 7A, the other user object 506 is stationary and not moving, but is displayed on the display 132.

なお、他ユーザオブジェクト506を操作する他のユーザのディスプレイ上では、他ユーザオブジェクト506は透明であり、表示されていない。一方、ユーザオブジェクト502は、当該他のユーザのディスプレイ上では不透明であり、表示されている。 Note that on the display of the other user who is manipulating the other user object 506, the other user object 506 is transparent and is not displayed. On the other hand, the user object 502 is opaque and is displayed on the display of the other user.

また、当該他のユーザによって、他ユーザオブジェクト506に対する移動又はその他の行動をさせるための操作が行われたとする。この場合、移動後の他ユーザオブジェクト506の位置、又はその他の行動を特定するための情報が、サーバ20を介してユーザオブジェクト502のユーザのユーザ端末10に送信される。制御部190は、その情報に基づいて、仮想空間501における他ユーザオブジェクト506の位置及び行動を制御する。 Also, assume that the other user performs an operation to move or perform another action on the other user's object 506. In this case, information for identifying the position of the other user's object 506 after the movement or other action is transmitted to the user terminal 10 of the user of the user object 502 via the server 20. The control unit 190 controls the position and action of the other user's object 506 in the virtual space 501 based on that information.

また、図7の(a)では、操作子601が破線で示されている。操作子601は、ユーザオブジェクト502を移動させる移動操作の入力を受け付けるために表示される仮想的なコントローラである。ユーザは、例えば、操作子601の中央にある円状部をドラッグすることで、ドラッグした方向にユーザオブジェクト502を移動させることができる。 In addition, in FIG. 7A, the operator 601 is indicated by a dashed line. The operator 601 is a virtual controller displayed to receive input of a movement operation for moving the user object 502. For example, the user can drag the circular portion in the center of the operator 601 to move the user object 502 in the direction of the drag.

操作子601は一例であり、他の形状や入力態様を採用してもよい。仮想空間501の視認性を高めるという観点から、操作子601は、ユーザの移動操作を受け付けるまでは、完全に透明な状態又は視認可能ではあるが透明度の高い状態であることが好ましい。 The operator 601 is an example, and other shapes and input modes may be adopted. From the viewpoint of improving the visibility of the virtual space 501, it is preferable that the operator 601 is completely transparent or is visible but highly transparent until it receives a movement operation from the user.

図7の(b)は、ユーザオブジェクト502の移動操作が開始され、当該ユーザオブジェクト502のフェードイン処理(図5に示すステップS150)及び準備動作(図5に示すステップS160)が行われている状態における仮想空間画像を示す。当該仮想空間画像において、ユーザオブジェクト502が半透明で表示されている。図7の(b)では、ユーザオブジェクト502が半透明で表示されていることを示すために、当該ユーザオブジェクト502を破線で示している。例えば、操作子601を左右に2分割する線分lよりも右側(矢印A方向側)に位置する領域へ円状部がドラッグされた場合、ドラッグ操作の開始後の第一期間において、ユーザオブジェクト502は右方向への移動の準備動作を実行する。 FIG. 7B shows a virtual space image in a state in which a movement operation of the user object 502 has been started, and the fade-in process (step S150 shown in FIG. 5) and preparatory operation (step S160 shown in FIG. 5) of the user object 502 are being performed. In the virtual space image, the user object 502 is displayed semi-transparently. In FIG. 7B, the user object 502 is shown with a dashed line to indicate that the user object 502 is displayed semi-transparently. For example, if the circular portion is dragged to an area located to the right (in the direction of arrow A) of the line segment l that divides the operator 601 into two halves, in a first period after the start of the drag operation, the user object 502 performs a preparatory operation for movement to the right.

具体的には、ユーザオブジェクト502は、体の向きを右側へ向けて、上半身を傾ける。また、ユーザオブジェクト502は、さらに、膝及び腕を曲げるなどの準備動作を行ってもよい。 Specifically, the user object 502 turns its body to the right and tilts its upper body. The user object 502 may also perform preparatory movements such as bending its knees and arms.

また、図7の(b)では、右方向への移動操作がされていることを示すため、操作子601の円状部分は右側に位置している。また、移動操作がされていることに応じて、操作子601は、図7の(a)の場合よりも透明度の低い状態にされている。 In addition, in FIG. 7B, the circular portion of the control 601 is located on the right side to indicate that a rightward movement operation is being performed. In addition, in response to the movement operation being performed, the control 601 is made less transparent than in FIG. 7A.

図7の(c)は、ユーザオブジェクト502のフェードイン処理及び準備動作の完了後であり、かつ当該ユーザオブジェクト502の移動操作が継続中である状態(図5に示すステップS170)における仮想空間画像を示している。当該仮想空間画像において、ユーザオブジェクト502が不透明で表示されている。図7の(c)では、ユーザオブジェクト502が不透明で表示されていることを示すために、当該ユーザオブジェクト502を実線で示している。図7の(c)では、右方向への移動操作がされているため、ユーザ
オブジェクト502は右方向へ移動している。
Fig. 7C shows a virtual space image after the fade-in process and preparation operation of the user object 502 are completed and in a state in which the movement operation of the user object 502 is continuing (step S170 shown in Fig. 5). In the virtual space image, the user object 502 is displayed opaquely. In Fig. 7C, the user object 502 is shown with a solid line to indicate that the user object 502 is displayed opaquely. In Fig. 7C, a movement operation to the right has been performed, so the user object 502 is moving to the right.

また、図7の(c)では、図7の(b)と同様に、右方向への移動操作がされていることを示すため、操作子601の円状部分は右側に位置している。また、図7の(c)では、図7の(b)と同様に、移動操作がされていることに応じて、操作子601は、図7の(a)の場合よりも透明度の低い状態にされている。移動操作中において、ユーザの移動操作を容易にするという観点から、操作子601は不透明であってもよいし、仮想空間501の視認性を高めるという観点から、半透明又は透明であってもよい。 In FIG. 7(c), similar to FIG. 7(b), the circular portion of the control 601 is located on the right side to indicate that a rightward movement operation is being performed. In FIG. 7(c), similar to FIG. 7(b), the control 601 is less transparent than in FIG. 7(a) in response to a movement operation being performed. During a movement operation, the control 601 may be opaque from the viewpoint of facilitating the user's movement operation, or may be translucent or transparent from the viewpoint of increasing the visibility of the virtual space 501.

ユーザオブジェクト502の停止状態から移動状態への移行期間において、図7の(a)に示す仮想空間画像から図7の(b)に示す仮想空間画像を経由して、図7の(c)に示す仮想空間画像が表示される。図7では、ユーザオブジェクト502が付随動作を実行しているときの表示画面として図7の(b)の1つのみを示しているが、制御部190は、ユーザオブジェクト502の付随動作としての動きが連続的又は段階的に変化するように仮想空間画像を生成する。 During the transition period from a stopped state to a moving state of the user object 502, the virtual space image shown in FIG. 7(c) is displayed via the virtual space image shown in FIG. 7(a) through the virtual space image shown in FIG. 7(b). Although FIG. 7 shows only the display screen shown in FIG. 7(b) when the user object 502 is performing the accompanying action, the control unit 190 generates the virtual space image so that the movement of the user object 502 as the accompanying action changes continuously or stepwise.

また、この移行期間において、ユーザオブジェクト502のフェードイン処理により、ユーザオブジェクト502の透明度は連続的又は段階的に下げられる。すなわち、ユーザオブジェクト502のフェードイン処理と、ユーザオブジェクト502の移動のための準備動作とは並列的に実行される。 During this transition period, the transparency of the user object 502 is lowered continuously or stepwise by the fade-in process of the user object 502. In other words, the fade-in process of the user object 502 and the preparatory operation for the movement of the user object 502 are executed in parallel.

ユーザオブジェクト502が準備動作を行う第一期間の長さは、当該移行期間と同じであってもよいし、当該移行期間よりも短くてもよい。例えば、第一期間が移行期間よりも短い場合、フェードイン処理の開始とともにユーザオブジェクト502の準備動作及び移動が開始し、フェードイン処理の継続中に準備動作が完了する。また、例えば、第一期間が移行期間よりも長い場合、フェードイン処理の開始とともにユーザオブジェクト502の準備動作及び移動が開始し、フェードイン処理が完了した後においても準備動作が継続する。 The length of the first period during which the user object 502 performs the preparatory action may be the same as the transition period, or may be shorter than the transition period. For example, if the first period is shorter than the transition period, the preparatory action and movement of the user object 502 begins with the start of the fade-in process, and the preparatory action is completed while the fade-in process is continuing. Also, for example, if the first period is longer than the transition period, the preparatory action and movement of the user object 502 begins with the start of the fade-in process, and the preparatory action continues even after the fade-in process is completed.

(b-2)移動状態から停止状態へ移行する場合の仮想空間画像
ユーザオブジェクト502の移動状態から停止状態への移行期間において、図7の(c)に示す仮想空間画像から図7の(b)に示す仮想空間画像を経由して、図7の(a)に示す仮想空間画像が表示される。
(b-2) Virtual space image when transitioning from a moving state to a stopped state During the transition period from a moving state to a stopped state of the user object 502, the virtual space image shown in Figure 7(c) is displayed, via the virtual space image shown in Figure 7(b), and then the virtual space image shown in Figure 7(a).

図7の(b)に示すように、ユーザオブジェクト502は、移動操作の終了後、すなわちユーザによる円状部のドラッグ操作の終了後の第二期間において、停止までの余韻動作を実行する。例えば、ユーザオブジェクト502は、傾いている上半身を起こして、足踏みを行う。 As shown in FIG. 7B, the user object 502 performs a lingering motion until it stops during a second period after the movement operation is completed, that is, after the user has completed the drag operation of the circular portion. For example, the user object 502 raises its tilted upper body and stomps its feet.

また、この移行期間において、ユーザオブジェクト502のフェードアウト処理により、ユーザオブジェクト502の透明度は連続的又は段階的に上げられる。すなわち、ユーザオブジェクト502のフェードアウト処理と、ユーザオブジェクト502の停止のための余韻動作とは並列的に実行される。 In addition, during this transition period, the transparency of the user object 502 is increased continuously or stepwise by the fade-out process of the user object 502. In other words, the fade-out process of the user object 502 and the afterglow operation for stopping the user object 502 are executed in parallel.

なお、ユーザオブジェクト502が余韻動作を行う第二期間の長さは、当該移行期間と同じであってもよいし、当該移行期間よりも短くてもよい。例えば、第二期間が移行期間よりも短い場合、フェードアウト処理の開始とともにユーザオブジェクト502の余韻動作が開始し、フェードアウト処理の継続中に余韻動作が完了する。 The length of the second period during which the user object 502 performs the lingering action may be the same as the transition period, or may be shorter than the transition period. For example, if the second period is shorter than the transition period, the lingering action of the user object 502 starts when the fade-out process starts, and the lingering action is completed while the fade-out process continues.

(b-3)停止状態におけるユーザオブジェクトのジェスチャーの実行
ユーザオブジェクト502は、ユーザが表示画面に含まれるアイコンを押下する等の操作を行った場合、当該操作の内容に応じたジェスチャーを実行してもよい。ジェスチャーには、拍手をする動作、及び手を振る動作などが含まれる。
(b-3) Execution of Gesture of User Object in Stopped State When the user performs an operation such as pressing an icon included in the display screen, the user object 502 may execute a gesture according to the content of the operation. The gesture includes a clapping action, a waving action, and the like.

制御部190は、ユーザオブジェクト502が停止状態、すなわち非表示である状態においてジェスチャーを実行する場合、当該ユーザオブジェクト502を表示する。そして、制御部190は、ユーザオブジェクト502のジェスチャーが終了すると、当該ユーザオブジェクト502を再び非表示にする。 When the control unit 190 executes a gesture while the user object 502 is in a stopped state, i.e., in a state where the user object 502 is not displayed, the control unit 190 displays the user object 502. Then, when the gesture of the user object 502 ends, the control unit 190 makes the user object 502 invisible again.

このような構成により、ユーザオブジェクト502が実行することのできる動作の種類を増やし、さらに、ユーザオブジェクト502の停止中における動作を、当該ユーザオブジェクト502を操作するユーザが確認することができる。 This configuration increases the variety of actions that the user object 502 can perform, and further allows the user operating the user object 502 to check the actions that the user object 502 is performing while stopped.

(b-4)移動速度に応じた動作の制御
ユーザオブジェクト502は、操作子601の円状部がドラッグされる長さに応じて、移動速度が変化してもよい。具体的には、移動操作が行われていない場合における操作子601の円状部の中心位置を初期位置とすると、ドラッグされた円状部の中心位置と初期位置との距離がゼロより大きく、かつ所定値未満である場合にはユーザオブジェクト502が歩いて移動する。また、ドラッグされた円状部の中心位置と初期位置との距離が所定値以上である場合にはユーザオブジェクト502が走って移動する。以下、ユーザオブジェクト502が歩いている状態を歩行状態と称し、ユーザオブジェクト502が走っている状態を走行状態と称する。
(b-4) Control of Operation According to Movement Speed The movement speed of the user object 502 may change according to the length by which the circular part of the operator 601 is dragged. Specifically, assuming that the center position of the circular part of the operator 601 when no movement operation is performed is the initial position, the user object 502 moves by walking when the distance between the center position of the dragged circular part and the initial position is greater than zero and less than a predetermined value. Also, the user object 502 moves by running when the distance between the center position of the dragged circular part and the initial position is equal to or greater than a predetermined value. Hereinafter, the state in which the user object 502 is walking is referred to as a walking state, and the state in which the user object 502 is running is referred to as a running state.

制御部190は、ユーザオブジェクト502が歩行状態から走行状態へ移行する場合、当該ユーザオブジェクト502の上半身の傾きを大きくする等の付随動作を実行させてもよい。また、制御部190は、ユーザオブジェクト502が走行状態から歩行状態へ移行する場合、当該ユーザオブジェクト502の上半身の傾きを小さくする等の付随動作を実行させてもよい。 When the user object 502 transitions from a walking state to a running state, the control unit 190 may execute an associated action such as increasing the inclination of the upper body of the user object 502. Also, when the user object 502 transitions from a running state to a walking state, the control unit 190 may execute an associated action such as decreasing the inclination of the upper body of the user object 502.

このような場合において、後述するように、ユーザオブジェクト502の向きと仮想カメラ503の視線方向とが合っていると、ユーザオブジェクト502の移動速度が大きくなるほど当該ユーザオブジェクト502の上半身の傾きが大きくなり、当該ユーザオブジェクト502の頭が仮想カメラ503から離れる。このため、仮想カメラ503による撮像画像を見るユーザにおいては、ユーザオブジェクト502の移動速度が大きくなるほど、ユーザオブジェクト502との距離が遠くなるように感じる。 In such a case, as described below, if the orientation of the user object 502 and the line of sight direction of the virtual camera 503 are aligned, the greater the moving speed of the user object 502, the greater the inclination of the upper body of the user object 502, and the further away the head of the user object 502 is from the virtual camera 503. For this reason, a user viewing an image captured by the virtual camera 503 feels that the greater the moving speed of the user object 502, the farther the distance to the user object 502 is.

一方、ユーザオブジェクト502の移動速度が小さくなるほど当該ユーザオブジェクト502の上半身の傾きが小さくなり、当該ユーザオブジェクト502の頭が仮想カメラ503に近づく。このため、仮想カメラ503による撮像画像を見るユーザにおいては、ユーザオブジェクト502の移動速度が小さくなるほど、ユーザオブジェクト502との距離が近くなるように感じる。 On the other hand, the slower the moving speed of the user object 502, the less the inclination of the upper body of the user object 502 becomes, and the closer the head of the user object 502 becomes to the virtual camera 503. Therefore, a user viewing an image captured by the virtual camera 503 feels that the slower the moving speed of the user object 502 is, the closer the distance to the user object 502 becomes.

なお、本実施形態では、ユーザオブジェクト502の移動速度が大きくなるほど当該ユーザオブジェクト502の上半身の傾きが大きくなる構成を採用しているが、このような構成に限定されない。例えば、ユーザオブジェクト502が走行を開始したタイミングから所定時間、当該ユーザオブジェクト502の上半身の傾きを大きくし、当該所定時間が経過した後、上半身の傾きを徐々に小さくする構成を採用してもよい。このような場合であっても、上記所定時間が経過した後の走行状態における上半身の傾きは、歩行状態における上半身の傾きよりも大きいことが望ましい。 In this embodiment, a configuration is adopted in which the inclination of the upper body of the user object 502 increases as the moving speed of the user object 502 increases, but the present invention is not limited to such a configuration. For example, a configuration may be adopted in which the inclination of the upper body of the user object 502 increases for a predetermined time from the timing when the user object 502 starts running, and the inclination of the upper body gradually decreases after the predetermined time has elapsed. Even in such a case, it is desirable that the inclination of the upper body in the running state after the above-mentioned predetermined time has elapsed is greater than the inclination of the upper body in the walking state.

(変形例1)
図8は、本開示の第1の実施の形態の変形例1に係る表示画面の一例を示す模式図である。具体的には、図8の(a)は、ユーザオブジェクト502が移動状態である場合の表示画面を示している。図8の(b)は、ユーザオブジェクト502の移動停止時におけるユーザオブジェクト502の向きを説明するための表示画面を示している。
(Variation 1)
Fig. 8 is a schematic diagram showing an example of a display screen according to the first modification of the first embodiment of the present disclosure. Specifically, Fig. 8(a) shows a display screen when the user object 502 is in a moving state. Fig. 8(b) shows a display screen for explaining the orientation of the user object 502 when the user object 502 stops moving.

画像生成部196は、仮想空間画像の生成において、ユーザオブジェクト502が移動状態から停止状態へ移行する場合、当該ユーザオブジェクト502の向きと仮想カメラ503の視線方向とが合うように当該ユーザオブジェクト502を制御してもよい。 When generating a virtual space image, the image generating unit 196 may control the user object 502 so that the orientation of the user object 502 matches the line of sight direction of the virtual camera 503 when the user object 502 transitions from a moving state to a stopped state.

具体的には、図8の(a)に示すように、ユーザオブジェクト502が右方向へ移動しているとする。このような移動状態において移動操作が終了すると、画像生成部196は、図8の(b)に示すように、ユーザオブジェクト502の背中側に仮想カメラ503が位置するように当該ユーザオブジェクト502の向きを変更する。 Specifically, assume that the user object 502 is moving to the right as shown in FIG. 8(a). When the movement operation ends in this moving state, the image generating unit 196 changes the orientation of the user object 502 so that the virtual camera 503 is positioned behind the user object 502 as shown in FIG. 8(b).

画像生成部196は、ユーザオブジェクト502の右方向への移動操作が終了した場合だけでなく、仮想カメラ503が位置する方向等の他の方向への移動操作が終了した場合においても同様に、ユーザオブジェクト502の背中側に仮想カメラ503が位置するように当該ユーザオブジェクト502の向きを変更する。 The image generating unit 196 changes the orientation of the user object 502 so that the virtual camera 503 is located behind the user object 502 not only when the movement operation of the user object 502 to the right is completed, but also when the movement operation is completed in another direction, such as the direction in which the virtual camera 503 is located.

そして、画像生成部196は、ユーザオブジェクト502の向きと仮想カメラ503の視線方向とを合わせた後、例えば、上述したフェードアウト処理を行い、当該ユーザオブジェクト502を透明にする。なお、画像生成部196は、ユーザオブジェクト502の向きの変更と、当該ユーザオブジェクト502のフェードアウト処理とを並列的に行ってもよい。 Then, the image generating unit 196 aligns the orientation of the user object 502 with the line of sight direction of the virtual camera 503, and then performs, for example, the fade-out process described above to make the user object 502 transparent. Note that the image generating unit 196 may change the orientation of the user object 502 and perform the fade-out process of the user object 502 in parallel.

また、画像生成部196は、ユーザオブジェクト502の移動状態から停止状態への移行期間において、図5に示すステップS210に示す余韻動作を実行させる場合、例えば、当該ユーザオブジェクト502の向きの変更と、余韻動作を実行させる処理とを並列的に行う。 In addition, when the image generating unit 196 executes the afterglow action shown in step S210 in FIG. 5 during the transition period from the moving state to the stopped state of the user object 502, for example, the image generating unit 196 performs the process of changing the orientation of the user object 502 and the process of executing the afterglow action in parallel.

上記のように、ユーザオブジェクト502が移動状態から停止状態へ移行する場合、当該ユーザオブジェクト502の向きと仮想カメラ503の視線方向とを合わせることにより、ユーザオブジェクト502が、見えていないはずの他のユーザオブジェクトとコミュニケーションをとるなどの違和感を防ぐことができる。 As described above, when the user object 502 transitions from a moving state to a stopped state, the orientation of the user object 502 is aligned with the line of sight of the virtual camera 503, thereby preventing the user object 502 from feeling unnatural, such as communicating with other user objects that are not supposed to be visible.

しかしながら、ユーザオブジェクト502を操作するユーザは、当該ユーザオブジェクト502の表情を確認することができない。このため、ユーザオブジェクト502が移動状態から停止状態へ移行する場合において、当該ユーザオブジェクト502の向きと仮想カメラ503の視線方向とを合わせない構成を採用してもよい。 However, the user who operates the user object 502 cannot confirm the facial expression of the user object 502. For this reason, a configuration may be adopted in which the orientation of the user object 502 does not match the line of sight of the virtual camera 503 when the user object 502 transitions from a moving state to a stopped state.

また、例えば、ユーザオブジェクト502が移動状態から停止状態へ移行する場合、当該ユーザオブジェクト502の向きと仮想カメラ503の視線方向とを合わせ、さらに、当該ユーザオブジェクト502の顔を含む一部又は全部の画像であって、当該ユーザオブジェクト502を正面から見た画像を表示画面に表示する構成を採用してもよい。 In addition, for example, when the user object 502 transitions from a moving state to a stopped state, the orientation of the user object 502 may be aligned with the line of sight of the virtual camera 503, and an image of the user object 502 viewed from the front, which includes a partial or full image of the face of the user object 502, may be displayed on the display screen.

(変形例2)
画像生成部196は、移動操作の開始前後及び移動操作の終了前後において、仮想カメラ503とユーザオブジェクト502との距離を変更してもよい。例えば、画像生成部196は、図5のステップS170に示すユーザオブジェクト502の移動開始時において、当該ユーザオブジェクト502を仮想カメラ503から遠ざけるように、当該ユーザオブジェクト502を制御する。
(Variation 2)
The image generation unit 196 may change the distance between the virtual camera 503 and the user object 502 before and after the start of the movement operation and before and after the end of the movement operation. For example, the image generation unit 196 controls the user object 502 so as to move the user object 502 away from the virtual camera 503 when the user object 502 starts to move as shown in step S170 of FIG.

具体的には、ユーザオブジェクト502の停止時におけるユーザオブジェクト502と仮想カメラ503との距離を第一距離とする。画像生成部196は、ユーザオブジェクト502の移動操作が開始すると、ユーザオブジェクト502と仮想カメラ503との距離が、第一距離よりも長い第二距離になるように、ユーザオブジェクト502を移動させる。そして、画像生成部196は、当該距離が第二距離のまま維持されるように、ユーザオブジェクト502及び仮想カメラ503を同じ移動速度で移動させる。 Specifically, the distance between the user object 502 and the virtual camera 503 when the user object 502 stops is set to a first distance. When the movement operation of the user object 502 starts, the image generation unit 196 moves the user object 502 so that the distance between the user object 502 and the virtual camera 503 becomes a second distance that is longer than the first distance. Then, the image generation unit 196 moves the user object 502 and the virtual camera 503 at the same movement speed so that the distance is maintained as the second distance.

また、画像生成部196は、例えば、図5のステップS190に示すユーザオブジェクト502の移動停止時において、当該ユーザオブジェクト502を仮想カメラ503に近づけるように、当該ユーザオブジェクト502を制御する。具体的には、画像生成部196は、ユーザオブジェクト502の移動操作が終了すると、ユーザオブジェクト502と仮想カメラ503との距離が第二距離から第一距離に変更されるように、ユーザオブジェクト502を移動させる。 In addition, for example, when the movement of the user object 502 shown in step S190 of FIG. 5 is stopped, the image generation unit 196 controls the user object 502 so as to bring the user object 502 closer to the virtual camera 503. Specifically, when the movement operation of the user object 502 is completed, the image generation unit 196 moves the user object 502 so that the distance between the user object 502 and the virtual camera 503 is changed from the second distance to the first distance.

このような構成により、ユーザオブジェクト502が移動状態から停止状態へ移行する場合、ユーザにとって、ユーザオブジェクト502が自分に近づいた後に表示画面から消えるため、ユーザオブジェクト502が自分の中に取り込まれたような感覚をより得やすくなる。また、ユーザオブジェクト502が停止状態から移動状態へ移行する場合、ユーザにとって、ユーザオブジェクト502が自分から離れていくため、ユーザオブジェクト502が自分の中から出てくるような感覚をより得やすくなる。 With this configuration, when the user object 502 transitions from a moving state to a stopped state, the user is more likely to feel as if the user object 502 has been absorbed into the user, because the user object 502 approaches the user and then disappears from the display screen. Also, when the user object 502 transitions from a stopped state to a moving state, the user is more likely to feel as if the user object 502 is coming out of the user, because the user object 502 moves away from the user.

なお、画像生成部196は、仮想カメラ503とユーザオブジェクト502との距離を変更する際に、ユーザオブジェクト502を移動させる代わりに、仮想カメラ503を移動させてもよい。 When changing the distance between the virtual camera 503 and the user object 502, the image generation unit 196 may move the virtual camera 503 instead of moving the user object 502.

また、移動操作の開始前後及び移動操作の終了前後において、仮想カメラ503とユーザオブジェクト502との距離を変更する代わりに、又は当該距離を変更することに加えて、ユーザオブジェクト502の大きさを変更する構成を採用してもよい。 In addition, instead of or in addition to changing the distance between the virtual camera 503 and the user object 502 before and after the start and end of the movement operation, a configuration may be adopted in which the size of the user object 502 is changed.

例えば、画像生成部196は、ユーザオブジェクト502が移動状態から停止状態へ移行する場合、当該ユーザオブジェクト502のフェードアウト処理を行いながら、当該ユーザオブジェクト502の大きさを、移動状態における当該ユーザオブジェクト502の大きさ(以下、単に「移動時の大きさ」とも称する)から徐々に大きくしてもよい。また、画像生成部196は、例えば、ユーザオブジェクト502が停止状態から移動状態へ移行する場合、当該ユーザオブジェクト502のフェードイン処理を行いながら、当該ユーザオブジェクト502の大きさを、移動時の大きさよりも大きい状態から移動時の大きさになるまで、徐々に小さくしてもよい。 For example, when the user object 502 transitions from a moving state to a stopped state, the image generating unit 196 may perform a fade-out process on the user object 502 while gradually increasing the size of the user object 502 from the size of the user object 502 in the moving state (hereinafter also simply referred to as the "size when moving"). Also, when the user object 502 transitions from a stopped state to a moving state, the image generating unit 196 may perform a fade-in process on the user object 502 while gradually decreasing the size of the user object 502 from a state larger than the size when moving to the size when moving.

本開示の第1の実施の形態に係る内容を列記すると以下の通りである。 The contents of the first embodiment of the present disclosure are as follows:

(項目1-1)
プロセッサ及びメモリを備えるコンピュータにより実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
仮想空間を生成するステップと、
前記仮想空間に仮想カメラ及びユーザオブジェクトを配置するステップと、
前記仮想カメラに基づいて、前記仮想カメラから前記仮想空間内を撮像した画像である仮想空間画像を生成するステップと、
前記ユーザオブジェクトを移動させるための移動操作がされたことに基づいて、前記仮想空間内において前記ユーザオブジェクトを移動させるステップと、を実行させ、
前記仮想空間画像を生成するステップにおいて、
前記移動操作がされていない場合、前記ユーザオブジェクトを透明にし、
前記移動操作がされている場合、前記ユーザオブジェクトを不透明にする、
プログラム。
これにより、ユーザオブジェクトの停止時においては当該ユーザオブジェクトが表示されないことにより、スクリーンオブジェクトなど、ユーザが見ようとする他の仮想オブジェクトがユーザオブジェクトによって隠れてしまうことを防ぐことができる。また、ユーザオブジェクトの移動時においては、ユーザオブジェクトが表示されることにより、ユーザオブジェクトの移動に伴う映像酔いを防ぎ、かつ仮想空間におけるユーザオブジェクトの移動方向を容易に把握することができる。したがって、仮想空間における移動操作性を維持しながら、視認性の低下を抑制することができる。
(Item 1-1)
A program executed by a computer having a processor and a memory,
The program causes the processor to:
A step of generating a virtual space;
placing a virtual camera and a user object in the virtual space;
generating a virtual space image based on the virtual camera, the virtual space image being an image captured by the virtual camera of the virtual space;
moving the user object in the virtual space based on a movement operation for moving the user object;
In the step of generating a virtual space image,
If the move operation is not performed, the user object is made transparent;
making the user object opaque if the move operation is performed;
program.
As a result, when the user object is stopped, the user object is not displayed, which prevents other virtual objects that the user is trying to see, such as a screen object, from being hidden by the user object. Also, when the user object moves, the user object is displayed, which prevents motion sickness caused by the movement of the user object and allows the user to easily grasp the direction of movement of the user object in the virtual space. Therefore, it is possible to suppress a decrease in visibility while maintaining the operability of movement in the virtual space.

(項目1-2)
前記仮想空間画像を生成するステップにおいて、
前記ユーザオブジェクトを不透明から透明にする場合、前記ユーザオブジェクトの透明度を徐々に上げて、
前記ユーザオブジェクトを透明から不透明にする場合、前記ユーザオブジェクトの透明度を徐々に下げる、
項目1-1に記載のプログラム。
これにより、ユーザオブジェクトの表示および非表示が切り替わることによる違和感を防ぐことができる。また、移動停止時においてはユーザオブジェクトが徐々に透明になることにより、ユーザにとって、ユーザオブジェクトが自分の中に取り込まれたような感覚になる一方で、移動開始時においてはユーザオブジェクトが徐々に不透明になることにより、ユーザにとって、ユーザオブジェクトが自分の中から出てくるような感覚になるため、仮想空間への没入感を高めることができる。
(Item 1-2)
In the step of generating a virtual space image,
When changing the user object from opaque to transparent, the transparency of the user object is gradually increased;
When changing the user object from transparent to opaque, gradually decreasing the transparency of the user object;
The program according to item 1-1.
This prevents the user from feeling uncomfortable when the user object is switched between visible and invisible. Also, when the user object stops moving, it gradually becomes transparent, giving the user the sensation that the user object has been taken into the user, whereas when the user object starts moving, it gradually becomes opaque, giving the user the sensation that the user object is coming out from within the user, thereby enhancing the sense of immersion in the virtual space.

(項目1-3)
前記プログラムは、前記プロセッサに、さらに、
前記移動操作の開始後の第一期間及び前記移動操作の終了後の第二期間のうちの少なくとも一方において、前記ユーザオブジェクトに、前記ユーザオブジェクトの移動又は停止に伴う動作である付随動作をさせるステップを実行させ、
前記付随動作は、前記ユーザオブジェクトが停止状態から移動状態へ移行するまでの準備動作、及び前記ユーザオブジェクトが移動状態から停止状態へ移行するまでの余韻動作のうちの少なくとも一方を含む、
項目1-1又は項目1-2に記載のプログラム。
これにより、ユーザオブジェクトに対してより自然な動作を実行させることができる。
(Item 1-3)
The program further causes the processor to
executing a step of making the user object perform an accompanying action that is an action accompanying the movement or stop of the user object, during at least one of a first period after the start of the moving operation and a second period after the end of the moving operation;
The accompanying action includes at least one of a preparatory action until the user object transitions from a stopped state to a moving state, and an aftertaste action until the user object transitions from a moving state to a stopped state.
The program according to item 1-1 or 1-2.
This allows the user object to perform more natural actions.

(項目1-4)
前記付随動作は、前記ユーザオブジェクトの姿勢の変更を含む、
項目1-3に記載のプログラム。
このように、変化が大きく分かりやすい動きを付随動作としてユーザオブジェクトに実行させることにより、停止状態と移動状態との間における動作の差をより効果的に補完することができる。
(Item 1-4)
The accompanying action includes changing the posture of the user object.
The program according to any one of items 1 to 3.
In this way, by having the user's object execute an accompanying action that is a movement that has a large change and is easy to understand, the difference in action between the stationary state and the moving state can be more effectively compensated for.

(項目1-5)
前記移動操作の開始前後及び前記移動操作の終了前後において、前記仮想カメラと前記ユーザオブジェクトとの距離を一定に保つ、
項目1-1から項目1-4のいずれか一項に記載のプログラム。
これにより、映像酔いをより一層防ぐことができる。
(Item 1-5)
maintaining a constant distance between the virtual camera and the user object before and after the start of the movement operation and before and after the end of the movement operation;
The program according to any one of items 1-1 to 1-4.
This will further prevent motion sickness.

(項目1-6)
前記ユーザオブジェクトが停止状態から移動状態へ移行する場合、前記ユーザオブジェクトを前記仮想カメラから遠ざけるように前記ユーザオブジェクトを制御し、
前記ユーザオブジェクトが移動状態から停止状態へ移行する場合、前記ユーザオブジェクトを前記仮想カメラに近づけるように前記ユーザオブジェクトを制御する、
項目1-1から項目1-4のいずれか一項に記載のプログラム。
これにより、ユーザオブジェクトが移動状態から停止状態へ移行する場合、ユーザにとって、ユーザオブジェクトが自分に近づいた後に表示画面から消えるため、ユーザオブジェクトが自分の中に取り込まれたような感覚をより得やすくなる。また、ユーザオブジェクトが停止状態から移動状態へ移行する場合、ユーザにとって、ユーザオブジェクトが自分から離れていくため、ユーザオブジェクトが自分の中から出てくるような感覚をより得やすくなる。
(Item 1-6)
When the user object transitions from a stationary state to a moving state, the user object is controlled to move away from the virtual camera;
When the user object transitions from a moving state to a stopped state, the user object is controlled so as to approach the virtual camera.
The program according to any one of items 1-1 to 1-4.
As a result, when the user object transitions from a moving state to a stationary state, the user can easily get the sense that the user object has been taken into the user, since the user object approaches the user and then disappears from the display screen. Also, when the user object transitions from a stationary state to a moving state, the user can easily get the sense that the user object is coming out of the user, since the user object is moving away from the user.

(項目1-7)
前記ユーザオブジェクトが移動状態から停止状態へ移行する場合、前記ユーザオブジェクトの向きと前記仮想カメラの視線方向とを合わせるように前記ユーザオブジェクトを制御する、
項目1-1から項目1-6のいずれか一項に記載のプログラム。
これにより、仮想カメラによって撮像される領域、すなわちユーザに対して表示される領域と、ユーザオブジェクトが見ることのできる領域との間にズレが生じること防ぐことができるため、ユーザにおいて、ユーザオブジェクトと同じ感覚であるように感じることができる。また、これにより、ユーザオブジェクトが、当該ユーザオブジェクトからは見えていないはずの他のユーザオブジェクトとコミュニケーションをとるなどの違和感を防ぐことができる。さらに、他のユーザにおいて、ユーザオブジェクトの向く方向を確認することにより、当該ユーザオブジェクトのユーザの見えている方向を把握することができる。
(Item 1-7)
When the user object transitions from a moving state to a stopped state, the user object is controlled so as to align a direction of the user object with a line of sight direction of the virtual camera.
The program according to any one of items 1-1 to 1-6.
This prevents a misalignment between the area captured by the virtual camera, i.e., the area displayed to the user, and the area the user object can see, so that the user can feel the same as the user object. This also prevents the user object from feeling unnatural when communicating with other user objects that should not be visible to the user object. Furthermore, by checking the direction in which the user object is facing, other users can understand the direction in which the user of the user object can see the user.

(項目1-8)
プロセッサ及びメモリを備えるコンピュータにより実行される方法であって、
前記方法は、前記プロセッサに、
仮想空間を生成するステップと、
前記仮想空間に仮想カメラ及びユーザオブジェクトを配置するステップと、
前記仮想カメラに基づいて、前記仮想カメラから前記仮想空間内を撮像した画像である仮想空間画像を生成するステップと、
前記ユーザオブジェクトを移動させるための移動操作がされたことに基づいて、前記仮想空間内において前記ユーザオブジェクトを移動させるステップと、を実行させることを含み、
前記仮想空間画像を生成するステップにおいて、
前記移動操作がされていない場合、前記ユーザオブジェクトを透明にし、
前記移動操作がされている場合、前記ユーザオブジェクトを不透明にする、
方法。
これにより、ユーザオブジェクトの停止時においては当該ユーザオブジェクトが表示されないことにより、スクリーンオブジェクトなど、ユーザが見ようとする他の仮想オブジェクトがユーザオブジェクトによって隠れてしまうことを防ぐことができる。また、ユーザオブジェクトの移動時においては、ユーザオブジェクトが表示されることにより、ユーザオブジェクトの移動に伴う映像酔いを防ぎ、かつ仮想空間におけるユーザオブジェクトの移動方向を容易に把握することができる。したがって、仮想空間における移動操作性を維持しながら、視認性の低下を抑制することができる。
(Item 1-8)
1. A method implemented by a computer having a processor and a memory, comprising:
The method further comprises:
A step of generating a virtual space;
placing a virtual camera and a user object in the virtual space;
generating a virtual space image based on the virtual camera, the virtual space image being an image captured by the virtual camera of the virtual space;
moving the user object in the virtual space based on a movement operation for moving the user object;
In the step of generating a virtual space image,
If the move operation is not performed, the user object is made transparent;
making the user object opaque if the move operation is performed;
Method.
As a result, when the user object is stopped, the user object is not displayed, which prevents other virtual objects that the user is trying to see, such as a screen object, from being hidden by the user object. Also, when the user object moves, the user object is displayed, which prevents motion sickness caused by the movement of the user object and allows the user to easily grasp the direction of movement of the user object in the virtual space. Therefore, it is possible to suppress a decrease in visibility while maintaining the operability of movement in the virtual space.

(項目1-9)
プロセッサ及びメモリを備える情報処理装置であって、
前記プロセッサは、
仮想空間を生成し、
前記仮想空間に仮想カメラ及びユーザオブジェクトを配置し、
前記仮想カメラに基づいて、前記仮想カメラから前記仮想空間内を撮像した画像である仮想空間画像を生成し、
前記ユーザオブジェクトを移動させるための移動操作がされたことに基づいて、前記仮想空間内において前記ユーザオブジェクトを移動させるものであり、
前記仮想空間画像の生成において、
前記移動操作がされていない場合、前記ユーザオブジェクトを透明にし、
前記移動操作がされている場合、前記ユーザオブジェクトを不透明にする、
情報処理装置。
これにより、ユーザオブジェクトの停止時においては当該ユーザオブジェクトが表示されないことにより、スクリーンオブジェクトなど、ユーザが見ようとする他の仮想オブジェクトがユーザオブジェクトによって隠れてしまうことを防ぐことができる。また、ユーザオブジェクトの移動時においては、ユーザオブジェクトが表示されることにより、ユーザオブジェクトの移動に伴う映像酔いを防ぎ、かつ仮想空間におけるユーザオブジェクトの移動方向を容易に把握することができる。したがって、仮想空間における移動操作性を維持しながら、視認性の低下を抑制することができる。
(Item 1-9)
An information processing device including a processor and a memory,
The processor,
Generate a virtual space,
Placing a virtual camera and a user object in the virtual space;
generating a virtual space image based on the virtual camera, the virtual space image being an image captured by the virtual camera of the virtual space;
a user object is moved within the virtual space based on a movement operation for moving the user object;
In generating the virtual space image,
If the move operation is not performed, the user object is made transparent;
making the user object opaque if the move operation is performed;
Information processing device.
As a result, when the user object is stopped, the user object is not displayed, which prevents other virtual objects that the user is trying to see, such as a screen object, from being hidden by the user object. Also, when the user object moves, the user object is displayed, which prevents motion sickness caused by the movement of the user object and allows the user to easily grasp the direction of movement of the user object in the virtual space. Therefore, it is possible to suppress a decrease in visibility while maintaining the operability of movement in the virtual space.

[第2の実施の形態]
上述した第1の実施の形態では、ユーザオブジェクト502の移動操作の有無に応じて、ユーザオブジェクトを透明にすることと、ユーザオブジェクトを不透明にすることとを切り替える。これに対して、第2の実施の形態では、ユーザオブジェクト502の移動操作の有無に応じて、仮想空間画像を一人称視点の画像と三人称視点の画像との間で切り替える場合について説明する。
[Second embodiment]
In the first embodiment described above, the user object is switched between being transparent and being opaque depending on whether or not there is a movement operation of the user object 502. In contrast, in the second embodiment, a case will be described in which the virtual space image is switched between a first-person perspective image and a third-person perspective image depending on whether or not there is a movement operation of the user object 502.

(課題の説明)
図9は、本開示の第2の実施の形態の比較例に従う表示画面の一例を示す模式図である。ここでは、比較例に係るユーザ端末は、ユーザオブジェクト502の移動操作の有無に応じて、仮想空間画像を一人称視点の画像と三人称視点の画像との間で切り替える構成であるとする。
(Explanation of the issue)
9 is a schematic diagram illustrating an example of a display screen according to a comparative example of the second embodiment of the present disclosure. Here, the user terminal according to the comparative example is configured to switch the virtual space image between a first-person perspective image and a third-person perspective image depending on whether or not a movement operation of a user object 502 is performed.

例えば、ユーザオブジェクト502が、看板オブジェクト1302の前へ移動してきたとする。この場合、比較例に係るユーザ端末では、図9の(a)に示すように、ユーザオブジェクト502の少なくとも一部を含む三人称視点の画像が、仮想空間画像としてディスプレイ132に表示される。このときの仮想空間501における仮想カメラ503は、例えば、ユーザオブジェクト502の視点位置からユーザオブジェクト502の後方側へ所定距離だけ離れた箇所に位置する。 For example, suppose that the user object 502 moves in front of the signboard object 1302. In this case, in the user terminal according to the comparative example, as shown in FIG. 9(a), a third-person perspective image including at least a part of the user object 502 is displayed on the display 132 as a virtual space image. At this time, the virtual camera 503 in the virtual space 501 is located, for example, at a location a predetermined distance behind the viewpoint position of the user object 502.

また、図9の(a)に示す表示画面がディスプレイ132に表示されている状況において、ユーザが、ユーザオブジェクト502の移動操作を終了させたとする。この場合、比較例に係るユーザ端末では、図9の(b)に示すように、ユーザオブジェクト502の一人称視点の画像が、仮想空間画像としてディスプレイ132に表示される。このときの仮想空間501における仮想カメラ503の位置は、ユーザオブジェクト502の視線位置である。 In addition, assume that the user has finished moving the user object 502 when the display screen shown in FIG. 9(a) is displayed on the display 132. In this case, in the user terminal according to the comparative example, an image of the first-person perspective of the user object 502 is displayed on the display 132 as a virtual space image, as shown in FIG. 9(b). The position of the virtual camera 503 in the virtual space 501 at this time is the line of sight position of the user object 502.

このように、仮想空間画像が三人称視点の画像から一人称視点の画像へ切り替えられた場合、仮想空間501における仮想カメラ503は、当該仮想カメラ503の視線方向へ移動する。このため、仮想空間画像の全体が拡大されて、看板オブジェクト1302など、ユーザオブジェクト502以外の他のオブジェクトが鮮明に映る。しかしながら、当該他のオブジェクトが他人の著作物である場合には、他人の著作物が鮮明に映る画像の複製等を容易に行うことができてしまう。 In this way, when the virtual space image is switched from a third-person perspective image to a first-person perspective image, the virtual camera 503 in the virtual space 501 moves in the line of sight of the virtual camera 503. As a result, the entire virtual space image is enlarged, and objects other than the user object 502, such as the signboard object 1302, are clearly shown. However, if the other object is someone else's work, it is easy to make a copy of the image in which the other person's work is clearly shown.

これに対して、第2の実施の形態に係るユーザ端末10における制御部190は、後述のような構成により、上記課題を解決する。 In response to this, the control unit 190 in the user terminal 10 according to the second embodiment solves the above problem by using the configuration described below.

(ユーザ端末の構成)
図10は、本開示の第2の実施の形態に従う表示画面の一例を示す模式図である。図10の(a)は、図9の(a)と同様に、ユーザオブジェクト502が看板オブジェクト1302の前へ移動してきた際に生成される仮想空間画像を示している。図10の(b)は、ユーザオブジェクト502が看板オブジェクト1302の前で停止した際に生成される仮想空間画像を示している。
(Configuration of user terminal)
Fig. 10 is a schematic diagram showing an example of a display screen according to the second embodiment of the present disclosure. Fig. 10(a) shows a virtual space image generated when the user object 502 moves in front of the signboard object 1302, similar to Fig. 9(a). Fig. 10(b) shows a virtual space image generated when the user object 502 stops in front of the signboard object 1302.

図10を参照して、第2の実施の形態に係る制御部190は、所定条件が満たされる際に、仮想空間画像を一人称視点の画像と三人称視点の画像との間で切り替える。 Referring to FIG. 10, the control unit 190 according to the second embodiment switches the virtual space image between a first-person perspective image and a third-person perspective image when a predetermined condition is satisfied.

ここでは、一例として、制御部190における画像生成部196は、上述した比較例と同様に、ユーザオブジェクト502の移動操作が行われている場合、図10の(a)に示すように、仮想空間画像として三人称視点の画像を生成する。また、画像生成部196は、ユーザオブジェクト502の移動操作が行われていない場合、図10の(b)に示すように、仮想空間画像として一人称視点の画像を生成する。 As an example, in the same manner as in the comparative example described above, when the user object 502 is being moved, the image generating unit 196 in the control unit 190 generates a third-person perspective image as a virtual space image, as shown in FIG. 10(a). Also, when the user object 502 is not being moved, the image generating unit 196 generates a first-person perspective image as a virtual space image, as shown in FIG. 10(b).

画像生成部196は、一人称視点の画像を生成する際、当該画像(以下、「生成予定画像」と称する)に特定のオブジェクトが含まれるか否かを判断する。 When generating a first-person perspective image, the image generation unit 196 determines whether the image (hereinafter referred to as the "image to be generated") contains a specific object.

より詳細には、例えば、図2に示す仮想空間情報152には、1または複数の特定のオブジェクトが予め登録されている。具体的には、静的なオブジェクトが、特定のオブジェクトとして登録されている。 More specifically, for example, one or more specific objects are registered in advance in the virtual space information 152 shown in FIG. 2. Specifically, static objects are registered as specific objects.

静的なオブジェクトには、キャラクタ、模様、文字又は記号等、もしくはこれらの組み合わせにより表現された、ポスター、垂れ幕、旗、看板、及び掲示に供するオブジェクトが含まれる。すなわち、静的なオブジェクトは、外的な応力が加えられた場合等を除いて、基本的には自立して動作しないものであり、例えば、建物や電柱に張られたり、立て看板のように道に置かれたりするものである。 Static objects include posters, banners, flags, signs, and objects used for display, which are represented by characters, patterns, letters, symbols, etc., or a combination of these. In other words, static objects are objects that do not basically function independently unless subjected to external stress, and are, for example, objects that are attached to buildings or utility poles, or placed on the road like signboards.

なお、特定のオブジェクトには、動的なオブジェクトに付された静的なオブジェクトも含まれる。例えば、バルーン等の浮遊物に付された静的なオブジェクト、及び、周期的又は所定のルートを移動するよう制御されるロボット型又は車型の移動オブジェクトに付された静的なオブジェクトも、特定のオブジェクトに含まれる。また、例えば、いわゆるNPC(ノンプレイヤキャラ)に所持又は装備された静的なオブジェクトも、特定のオブジェクトに含まれる。図10に示す看板オブジェクト1302は、特定のオブジェクトとして仮想空間情報152に登録されているとする。 Note that specific objects also include static objects attached to dynamic objects. For example, specific objects include static objects attached to floating objects such as balloons, and static objects attached to robot- or car-type moving objects that are controlled to move periodically or along a predetermined route. Specific objects also include static objects possessed or equipped by so-called NPCs (non-player characters). The signboard object 1302 shown in FIG. 10 is registered in the virtual space information 152 as a specific object.

また、ユーザオブジェクト502には、一のプレイヤが操作するプレイヤオブジェクトと、当該一のプレイヤとは異なる他のプレイヤ又はコンピュータが操作する他のプレイヤオブジェクトとが含まれてもよい。この場合、他のプレイヤオブジェクトが特定のオブジェクトとして登録されてもよい。 The user objects 502 may also include a player object operated by one player, and other player objects operated by other players different from the one player or by a computer. In this case, the other player objects may be registered as specific objects.

画像生成部196は、例えば、一人称視点の画像に切り替える直前の三人称視点の画像に対して画像処理を行い、さらに仮想空間情報152を参照して、当該三人称視点の画像に特定のオブジェクトが含まれるか否かを判断する。そして、画像生成部196は、当該三人称視点の画像に特定のオブジェクトが含まれると判断した場合、生成予定画像においても特定のオブジェクトが含まれると判断する。 The image generation unit 196 performs image processing on the third-person perspective image immediately before switching to the first-person perspective image, and further refers to the virtual space information 152 to determine whether or not the third-person perspective image includes a specific object. Then, if the image generation unit 196 determines that the third-person perspective image includes a specific object, it determines that the image to be generated also includes the specific object.

また、画像生成部196は、三人称視点の画像を生成していない状態では、仮想空間情報152に含まれる配置情報、及びユーザオブジェクト502の位置情報を参照して、生成予定画像に特定のオブジェクトが含まれるか否かを判断してもよい。 In addition, when the image generation unit 196 is not generating a third-person perspective image, the image generation unit 196 may refer to the placement information included in the virtual space information 152 and the position information of the user object 502 to determine whether or not a specific object is included in the image to be generated.

また、画像生成部196は、生成予定画像に特定のオブジェクトが含まれると判断した場合、当該生成予定画像において特定のオブジェクトが所定の表示態様で表示されるように、当該特定のオブジェクトに所定の処理を施す。 In addition, when the image generating unit 196 determines that a specific object is included in the image to be generated, it performs a predetermined process on the specific object so that the specific object is displayed in a predetermined display mode in the image to be generated.

例えば、画像生成部196は、特定のオブジェクトの視認性が低下するような処理を施す。具体的には、モザイク処理、ボカシ処理、画質を変更する処理、画素数を変更する処理、色彩を変更する処理、明度を変更する処理、または彩度を変更する処理などが所定の処理として施される。画像生成部196は、生成予定画像に特定のオブジェクトが複数含まれる場合、各特定のオブジェクトに対して所定の処理を施す。 For example, the image generating unit 196 performs processing that reduces the visibility of a specific object. Specifically, the predetermined processing includes mosaic processing, blurring processing, processing to change image quality, processing to change the number of pixels, processing to change color, processing to change brightness, and processing to change saturation. When the image to be generated includes multiple specific objects, the image generating unit 196 performs the predetermined processing on each specific object.

なお、画像生成部196は、所定の処理として、特定のオブジェクトの少なくとも一部を予め定められた他のオブジェクトに置き換える処理、または特定のオブジェクトの少なくとも一部に対して予め定められた他のオブジェクトを重畳して表示させる処理などを施しても良い。予め定められた他のオブジェクトは、例えば、スタンプ画像やマスク画像などである。 The image generating unit 196 may perform the predetermined processing such as replacing at least a part of the specific object with another predetermined object, or superimposing and displaying at least a part of the specific object with another predetermined object. The other predetermined object is, for example, a stamp image or a mask image.

図10の(b)では、一例として、看板オブジェクト1302に対してモザイク処理が施された一人称視点の画像が、仮想空間画像としてディスプレイ132に表示されている。 In FIG. 10B, as an example, a first-person perspective image in which a mosaic process has been applied to a signboard object 1302 is displayed on the display 132 as a virtual space image.

また、図10の(b)に示す一人称視点の画像が表示されている状況において、ユーザオブジェクト502の移動操作が開始されたとする。この場合、画像生成部196は、図10の(a)に示すように、看板オブジェクト1302を通常の表示態様に戻して、三人称視点の画像を生成する。 Let us also assume that a movement operation of the user object 502 is started in a situation where the first-person perspective image shown in FIG. 10(b) is being displayed. In this case, the image generating unit 196 returns the signboard object 1302 to the normal display mode as shown in FIG. 10(a) and generates a third-person perspective image.

(プログラムの動作例)
次に、第2の実施の形態に従うプログラムの動作の流れを説明する。図11は、本開示の第2の実施の形態に従うプログラムの動作の流れの一例を示すフローチャートである。図11に示すように、まず、制御部190は、仮想空間情報152を参照し、仮想空間501、仮想カメラ503及び仮想オブジェクトを生成する(ステップS510)。
(Example of program operation)
Next, a flow of operation of a program according to the second embodiment will be described. Fig. 11 is a flowchart showing an example of a flow of operation of a program according to the second embodiment of the present disclosure. As shown in Fig. 11, first, the control unit 190 refers to the virtual space information 152 and generates a virtual space 501, a virtual camera 503, and a virtual object (step S510).

次に、制御部190は、仮想空間情報152に含まれる配置情報を参照し、仮想空間501に仮想オブジェクト及び仮想カメラ503を配置する(ステップS520)。仮想カメラ503の初期位置は、例えば、ユーザオブジェクト502の視点位置からユーザオブジェクト502の後方側へ所定距離だけ離れた位置である。 Next, the control unit 190 refers to the placement information included in the virtual space information 152 and places the virtual object and the virtual camera 503 in the virtual space 501 (step S520). The initial position of the virtual camera 503 is, for example, a position that is a predetermined distance away from the viewpoint position of the user object 502 to the rear of the user object 502.

次に、制御部190は、ユーザオブジェクト502の移動操作が行われている場合(ステップS530において「YES」)、三人称視点での仮想空間画像を生成し、生成した仮想空間画像をディスプレイ132に表示する(ステップS540)。 Next, if a movement operation of the user object 502 is being performed ("YES" in step S530), the control unit 190 generates a virtual space image from a third-person perspective and displays the generated virtual space image on the display 132 (step S540).

一方、制御部190は、ユーザオブジェクト502の移動操作が行われていない場合(ステップS530において「NO」)、一人称視点の画像である生成予定画像に特定のオブジェクトが含まれるか否かを判断する(ステップS550)。 On the other hand, if the user object 502 has not been moved ("NO" in step S530), the control unit 190 determines whether the image to be generated, which is an image from a first-person perspective, includes a specific object (step S550).

そして、制御部190は、生成予定画像に特定のオブジェクトが含まれると判断した場合(ステップS550において「YES」)、当該特定のオブジェクトに対して所定の処理を施した一人称視点の画像を仮想空間画像として生成する。そして、制御部190は、生成した仮想空間画像をディスプレイ132に表示する(ステップS560)。 If the control unit 190 determines that the image to be generated includes a specific object ("YES" in step S550), it generates a first-person perspective image in which a specific process has been applied to the specific object as a virtual space image. The control unit 190 then displays the generated virtual space image on the display 132 (step S560).

一方、制御部190は、生成予定画像に特定のオブジェクトが含まれないと判断した場合(ステップS550において「NO」)、所定の処理を施さない一人称視点の通常の画像を仮想空間画像として生成する。そして、制御部190は、生成した仮想空間画像をディスプレイ132に表示する(ステップS570)。 On the other hand, if the control unit 190 determines that the image to be generated does not include a specific object ("NO" in step S550), it generates a normal image from a first-person perspective without performing any specified processing as a virtual space image. The control unit 190 then displays the generated virtual space image on the display 132 (step S570).

なお、制御部190は、一人称視点の画像の生成時において所定の処理を施す構成に限らず、所定の処理を施していない一人称視点の画像を生成した後に、当該画像に含まれる特定のオブジェクトに対して所定の処理を施してもよい。 The control unit 190 is not limited to a configuration in which a predetermined process is performed when generating a first-person perspective image, but may instead generate a first-person perspective image that has not been subjected to the predetermined process, and then perform the predetermined process on a specific object included in the image.

本開示の第2の実施の形態に係る内容を列記すると以下の通りである。
(項目2-1)
コンピュータにより実行されるプログラムであって、
前記プログラムは、前記コンピュータを、
仮想空間を生成する手段と、
前記仮想空間に仮想カメラ、ユーザオブジェクト及び特定のオブジェクトを配置する手段と、
前記仮想カメラに基づいて、前記仮想空間の画像である仮想空間画像を生成する手段、として機能させ、
前記仮想空間画像を生成する手段として、
所定条件が満たされる際に、前記仮想空間画像を、前記ユーザオブジェクトの一人称視点の画像と、前記ユーザオブジェクトの少なくとも一部を含む三人称視点の画像との間で切り替えさせ、
前記仮想空間画像として前記一人称視点の画像を生成する際に、前記仮想空間画像に前記特定のオブジェクトが含まれるときは、前記特定のオブジェクトを所定の表示態様で表示させる、
プログラム。
このような構成により、仮想空間画像に他人の著作物である特定のオブジェクトが含まれる場合であっても、当該著作物が鮮明に映ることを避けるような表示態様で仮想空間画像を生成することができる。これにより、仮想空間画像において他人の著作物が鮮明に映り込むことを防ぐことができる。
The contents relating to the second embodiment of the present disclosure are listed as follows.
(Item 2-1)
A program executed by a computer,
The program causes the computer to
A means for generating a virtual space;
means for placing a virtual camera, a user object, and a specific object in the virtual space;
a means for generating a virtual space image, which is an image of the virtual space, based on the virtual camera;
As a means for generating the virtual space image,
when a predetermined condition is satisfied, switching the virtual space image between a first-person perspective image of the user object and a third-person perspective image including at least a portion of the user object;
When generating the first-person viewpoint image as the virtual space image, if the specific object is included in the virtual space image, the specific object is displayed in a predetermined display mode.
program.
With this configuration, even if a virtual space image contains a specific object that is a work of another person, the virtual space image can be generated in a display mode that avoids the work being clearly reflected. This makes it possible to prevent the work of another person from being clearly reflected in the virtual space image.

(項目2-2)
前記特定のオブジェクトは、静的なオブジェクトである、項目2-1に記載のプログラム。
このような構成により、仮想空間画像において、他人の著作物である可能性の高い静的なオブジェクトが鮮明に映り込むことを防ぐことができる。
(Item 2-2)
The program according to item 2-1, wherein the specific object is a static object.
With this configuration, it is possible to prevent static objects that are likely to be the copyrighted work of others from appearing clearly in the virtual space image.

(項目2-3)
前記ユーザオブジェクトには、一のプレイヤが操作するプレイヤオブジェクトと、前記一のプレイヤとは異なる他のプレイヤ又は前記コンピュータが操作する他のプレイヤオブジェクトとを含み、
前記特定のオブジェクトは、前記他のプレイヤオブジェクトである、項目2-1または項目2-2に記載のプログラム。
このような構成により、仮想空間画像において、他人の著作物である可能性の高い他のプレイヤオブジェクトが鮮明に映り込むことを防ぐことができる。
(Item 2-3)
the user objects include a player object operated by one player, and another player object operated by another player different from the one player or by the computer,
The program according to item 2-1 or 2-2, wherein the specific object is the other player object.
With this configuration, it is possible to prevent other player objects, which are likely to be the copyrighted works of others, from being clearly reflected in the virtual space image.

前記所定の表示態様での表示として、前記特定のオブジェクトの視認性を低下させる、項目2-1から項目2-3のいずれか1項に記載のプログラム。
このような構成により、他人の著作物である特定のオブジェクトが仮想空間画像に含まれる場合であっても、複雑な処理を施すことなく、当該著作物が仮想空間画像に鮮明に映り込むことを防ぐことができる。
The program according to any one of items 2-1 to 2-3, wherein the visibility of the specific object is reduced as the display in the predetermined display mode.
With this configuration, even if a specific object that is the work of another person is included in the virtual space image, the work can be prevented from being clearly reflected in the virtual space image without performing complex processing.

1または複数の情報処理装置を備える情報処理システムであって、
仮想空間を生成する処理と、
前記仮想空間に仮想カメラ、ユーザオブジェクト及び特定のオブジェクトを配置する処理と、
前記仮想カメラに基づいて、前記仮想空間の画像である仮想空間画像を生成する処理と、を行い、
前記仮想空間画像を生成する処理において、
所定条件が満たされる際に、前記仮想空間画像を、前記ユーザオブジェクトの一人称視点の画像と、前記ユーザオブジェクトの少なくとも一部を含む三人称視点の画像との間で切り替え、
前記仮想空間画像として前記一人称視点の画像を生成する際に、前記仮想空間画像に前記特定のオブジェクトが含まれるときは・BR>A前記特定のオブジェクトを所定の表示態様で表示する、
情報処理システム。
このような構成により、仮想空間画像に他人の著作物である特定のオブジェクトが含まれる場合であっても、当該著作物が鮮明に映ることを避けるような表示態様で仮想空間画像を生成することができる。これにより、仮想空間画像において他人の著作物が鮮明に映り込むことを防ぐことができる。
An information processing system including one or more information processing devices,
A process of generating a virtual space;
A process of placing a virtual camera, a user object, and a specific object in the virtual space;
A process of generating a virtual space image, which is an image of the virtual space, based on the virtual camera;
In the process of generating the virtual space image,
when a predetermined condition is satisfied, switching the virtual space image between a first-person perspective image of the user object and a third-person perspective image including at least a portion of the user object;
When generating the first-person viewpoint image as the virtual space image, if the specific object is included in the virtual space image, the specific object is displayed in a predetermined display mode.
Information processing system.
With this configuration, even if a virtual space image contains a specific object that is a work of another person, the virtual space image can be generated in a display mode that avoids the work being clearly reflected. This makes it possible to prevent the work of another person from being clearly reflected in the virtual space image.

[第3の実施の形態]
上述した第2の実施の形態では、仮想空間画像として一人称視点の画像が生成される際、仮想空間画像に含まれる特定のオブジェクトを所定の表示態様で表示する。これに対して、第3の実施の形態では、仮想空間画像における特定のオブジェクトの表示サイズに応じて、当該特定のオブジェクトを所定の表示態様で表示する。
[Third embodiment]
In the second embodiment described above, when a first-person viewpoint image is generated as a virtual space image, a specific object included in the virtual space image is displayed in a predetermined display mode. In contrast, in the third embodiment, a specific object is displayed in a predetermined display mode according to the display size of the specific object in the virtual space image.

図12は、本開示の第3の実施の形態に従う表示画面の一例を示す模式図である。図12の(a)は、図10の(a)と同様に、ユーザオブジェクト502が看板オブジェクト1302の前へ移動してきた際に生成される仮想空間画像を示している。図12の(b)は、ユーザオブジェクト502が看板オブジェクト1302の前へさらに近づいた際に生成される仮想空間画像を示している。 Figure 12 is a schematic diagram showing an example of a display screen according to the third embodiment of the present disclosure. (a) of Figure 12, like (a) of Figure 10, shows a virtual space image generated when the user object 502 moves in front of the signboard object 1302. (b) of Figure 12 shows a virtual space image generated when the user object 502 moves even closer to the signboard object 1302.

図2及び図12を参照して、第3の実施の形態に係る画像生成部196は、第2の実施の形態に係る画像生成部196と同様に、仮想空間画像を生成する際、仮想空間画像である生成予定画像に特定のオブジェクトが含まれるか否かを判断する。 Referring to Figures 2 and 12, the image generating unit 196 according to the third embodiment, like the image generating unit 196 according to the second embodiment, when generating a virtual space image, determines whether or not a specific object is included in the image to be generated, which is the virtual space image.

そして、画像生成部196は、生成予定画像に特定のオブジェクトが含まれると判断した場合、当該生成予定画像における特定のオブジェクトの表示サイズが所定のサイズより大きいか否かを判断する。以下、表示サイズが所定のサイズより大きいか否かの判断例について詳細に説明する。 If the image generating unit 196 determines that the image to be generated includes a specific object, it determines whether the display size of the specific object in the image to be generated is larger than a predetermined size. An example of determining whether the display size is larger than the predetermined size is described in detail below.

(a)表示サイズが所定のサイズより大きいか否かの判断例1
例えば、図2に示す仮想空間情報152には、第2の実施の形態と同様に、1または複数の特定のオブジェクトが登録されている。特定のオブジェクトとしては、第2の実施の形態と同様に、静的なオブジェクトが登録されている。図12に示す看板オブジェクト1302は、特定のオブジェクトとして仮想空間情報152に登録されているとする。なお、第2の実施の形態と同様に、他のプレイヤオブジェクトが特定のオブジェクトとして登録されてもよい。
(a) Example 1 of Determining Whether the Display Size is Larger than a Given Size
For example, one or more specific objects are registered in the virtual space information 152 shown in Fig. 2, similar to the second embodiment. As the specific object, a static object is registered, similar to the second embodiment. It is assumed that a signboard object 1302 shown in Fig. 12 is registered as a specific object in the virtual space information 152. Note that, similar to the second embodiment, another player object may be registered as a specific object.

さらに、仮想空間情報152には、各特定のオブジェクトのサイズ情報が登録されている。具体的には、特定のオブジェクトごとに、仮想空間501における当該特定のオブジェクトの高さや幅などがサイズ情報として登録されている。 Furthermore, size information of each specific object is registered in the virtual space information 152. Specifically, for each specific object, the height, width, etc. of the specific object in the virtual space 501 are registered as size information.

画像生成部196は、サイズ情報を参照して、例えば、生成予定画像における特定のオブジェクトの表示倍率を算出し、算出した表示倍率が第2閾値以上であるか否かを判断する。そして、画像生成部196は、算出した表示倍率が第2閾値以上である場合、当該特定のオブジェクトの表示サイズが所定のサイズより大きいと判断する。 The image generation unit 196 refers to the size information, for example, to calculate the display magnification of a specific object in the image to be generated, and determines whether the calculated display magnification is equal to or greater than a second threshold. If the calculated display magnification is equal to or greater than the second threshold, the image generation unit 196 determines that the display size of the specific object is larger than a predetermined size.

そして、この場合、画像生成部196は、当該生成予定画像において特定のオブジェクトが所定の表示態様で表示されるように、当該特定のオブジェクトに所定の処理を施す。すなわち、画像生成部196は、特定のオブジェクトの視認性が低下するような処理、具体的には、モザイク処理、ボカシ処理、画質を変更する処理、画素数を変更する処理、色彩を変更する処理、明度を変更する処理、または彩度を変更する処理などを施す。 In this case, the image generating unit 196 performs a predetermined process on the specific object so that the specific object is displayed in a predetermined display mode in the image to be generated. That is, the image generating unit 196 performs a process that reduces the visibility of the specific object, specifically, a mosaic process, a blurring process, a process that changes the image quality, a process that changes the number of pixels, a process that changes the color, a process that changes the brightness, or a process that changes the saturation.

図12の(a)に示す仮想空間画像において、看板オブジェクト1302の表示倍率が第2閾値より小さいとする。この場合、画像生成部196は、看板オブジェクト1302に対して所定の処理を施すことなく、通常の仮想空間画像を生成する。 In the virtual space image shown in FIG. 12(a), it is assumed that the display magnification of the signboard object 1302 is smaller than the second threshold. In this case, the image generating unit 196 generates a normal virtual space image without performing a predetermined process on the signboard object 1302.

一方、図12の(b)に示すように、ユーザオブジェクト502及び仮想カメラ503が看板オブジェクト1302に近づくように移動することにより、看板オブジェクト1302の表示倍率が第2閾値以上になったとする。この場合、画像生成部196は、看板オブジェクト1302に対して所定の処理を施した仮想空間画像を生成する。 On the other hand, as shown in FIG. 12B, assume that the user object 502 and the virtual camera 503 move closer to the signboard object 1302, causing the display magnification of the signboard object 1302 to become equal to or greater than the second threshold. In this case, the image generating unit 196 generates a virtual space image in which a predetermined process is performed on the signboard object 1302.

なお、制御部190は、特定のオブジェクトを含む仮想空間画像を生成する際、所定の処理を施した仮想空間画像を生成する構成に限らず、所定の処理を施していない仮想空間画像を生成した後に、当該仮想空間画像に含まれる特定のオブジェクトに対して所定の処理を施してもよい。 When generating a virtual space image including a specific object, the control unit 190 is not limited to a configuration in which a virtual space image that has been subjected to a specific process is generated, but may generate a virtual space image that has not been subjected to a specific process, and then perform a specific process on the specific object included in the virtual space image.

(b)表示サイズが所定のサイズより大きいか否かの判断例2
画像生成部196は、生成予定画像に対する特定のオブジェクトの占有率が第1閾値以上であるか否かを判断することにより、当該特定のオブジェクトの表示サイズが所定のサイズより大きいか否かを判断してもよい。第1閾値は、例えば30%などである。
(b) Example 2 of Determining Whether the Display Size is Larger than a Given Size
The image generating unit 196 may determine whether the display size of a specific object is larger than a predetermined size by determining whether the occupancy rate of the specific object in the image to be generated is equal to or larger than a first threshold value. The first threshold value is, for example, 30%.

より詳細には、画像生成部196は、仮想空間画像に特定のオブジェクトが含まれると判断した場合、例えば、所定の処理を施していない仮想空間画像を生成する。そして、画像生成部196は、生成した仮想空間画像に対して画像解析処理を行い、当該仮想空間画像に対する特定のオブジェクトの占有率を算出する。 More specifically, when the image generating unit 196 determines that the virtual space image includes a specific object, it generates a virtual space image that has not been subjected to a specific process, for example. Then, the image generating unit 196 performs an image analysis process on the generated virtual space image, and calculates the occupancy rate of the specific object in the virtual space image.

そして、画像生成部196は、算出した占有率が第1閾値以上であると判断した場合、当該特定のオブジェクトの表示サイズが所定のサイズより大きいと判断する。この場合、画像生成部196は、仮想空間画像における当該特定のオブジェクトに対して所定の処理を施す。これにより、図12の(b)に示すような仮想空間画像がディスプレイ132に表示される。 If the image generating unit 196 determines that the calculated occupancy rate is equal to or greater than the first threshold, it determines that the display size of the specific object is larger than a predetermined size. In this case, the image generating unit 196 performs a predetermined process on the specific object in the virtual space image. As a result, a virtual space image such as that shown in FIG. 12(b) is displayed on the display 132.

なお、画像生成部196は、判断例1及び判断例2の両方を行う構成であってもよいし、いずれか一方を行う構成であってもよい。 The image generation unit 196 may be configured to perform both judgment example 1 and judgment example 2, or may be configured to perform only one of them.

判断例1では、ユーザオブジェクト502との距離が近い特定のオブジェクトほど、表示倍率が第2閾値以上になりやすく、表示サイズが所定のサイズより大きいと判断されやすい。これに対して、判断例2では、仮想空間501におけるサイズが大きい特定のオブジェクトほど、仮想空間画像に対する占有率が第1閾値以上になりやすく、表示サイズが所定のサイズより大きいと判断されやすい。 In judgment example 1, the closer a specific object is to the user object 502, the more likely it is that the display magnification will be equal to or greater than the second threshold, and the more likely it is that the display size will be determined to be larger than the predetermined size. In contrast, in judgment example 2, the larger a specific object is in size in the virtual space 501, the more likely it is that its occupancy rate in the virtual space image will be equal to or greater than the first threshold, and the more likely it is that the display size will be determined to be larger than the predetermined size.

なお、ユーザオブジェクト502と特定のオブジェクトとの距離が近いことにより、当該特定のオブジェクトの表示倍率が第2閾値以上であり、かつ仮想空間画像に対する当該特定のオブジェクトの占有率が第1閾値以上である場合もある。このような場合、当該特定のオブジェクトは、判断例1または判断例2において、表示サイズが所定のサイズより大きいと判断される。 Note that, because the distance between the user object 502 and the specific object is short, the display magnification of the specific object may be equal to or greater than the second threshold value, and the occupancy rate of the specific object in the virtual space image may be equal to or greater than the first threshold value. In such a case, the display size of the specific object is determined to be larger than the predetermined size in judgment example 1 or judgment example 2.

(プログラムの動作例)
次に、第3の実施の形態に従うプログラムの動作の流れを説明する。図13は、本開示の第3の実施の形態に従うプログラムの動作の流れの一例を示すフローチャートである。図13に示すステップS610及びステップS620の動作は、図11に示すステップS510及びステップS520の動作と同様であるため、ここでの詳細な説明は繰り返さない。
(Example of program operation)
Next, a flow of operation of a program according to the third embodiment will be described. Fig. 13 is a flowchart showing an example of a flow of operation of a program according to the third embodiment of the present disclosure. The operations of steps S610 and S620 shown in Fig. 13 are similar to the operations of steps S510 and S520 shown in Fig. 11, and therefore detailed description thereof will not be repeated here.

次に、制御部190は、仮想空間画像である生成予定画像に特定のオブジェクトが含まれるか否かを判断する(ステップS630)。 Next, the control unit 190 determines whether the image to be generated, which is a virtual space image, includes a specific object (step S630).

そして、制御部190は、生成予定画像に特定のオブジェクトが含まれると判断した場合(ステップS630において「YES」)、当該生成予定画像における特定のオブジェクトの表示サイズが所定のサイズより大きいか否かを判断する(ステップS640)。 If the control unit 190 determines that the image to be generated includes a specific object ("YES" in step S630), it determines whether the display size of the specific object in the image to be generated is larger than a predetermined size (step S640).

そして、制御部190は、生成予定画像における特定のオブジェクトの表示サイズが所定のサイズより大きい、と判断した場合(ステップS640において「YES」)、当該特定のオブジェクトに対して所定の処理を施した仮想空間画像を生成する。そして、制御部190は、生成した仮想空間画像をディスプレイ132に表示する(ステップS650)。 If the control unit 190 determines that the display size of the specific object in the image to be generated is larger than the predetermined size ("YES" in step S640), it generates a virtual space image in which the specific object has been subjected to a predetermined process. The control unit 190 then displays the generated virtual space image on the display 132 (step S650).

一方、制御部190は、生成予定画像に特定のオブジェクトが含まれないと判断した場合(ステップS630において「NO」)、所定の処理を施さない通常の仮想空間画像を生成する。そして、制御部190は、生成した仮想空間画像をディスプレイ132に表示する(ステップS660)。 On the other hand, if the control unit 190 determines that the image to be generated does not include a specific object ("NO" in step S630), it generates a normal virtual space image without performing the specified processing. Then, the control unit 190 displays the generated virtual space image on the display 132 (step S660).

また、制御部190は、生成予定画像に特定のオブジェクトが含まれ、生成予定画像における当該特定のオブジェクトの表示サイズが所定のサイズ以下である、と判断したとする(ステップS640において「NO」)。この場合においても同様に、制御部190は、所定の処理を施さない通常の仮想空間画像を生成し、生成した仮想空間画像をディスプレイ132に表示する(ステップS660)。 The control unit 190 also determines that the image to be generated includes a specific object, and that the display size of the specific object in the image to be generated is equal to or smaller than a predetermined size ("NO" in step S640). In this case, the control unit 190 similarly generates a normal virtual space image that does not undergo the predetermined processing, and displays the generated virtual space image on the display 132 (step S660).

以上、本開示に係る第1から第3の実施の形態について詳細に説明したが、プログラムの動作に支障が生じない限り、各実施の形態の説明において制御部190が実行していた処理の一部を制御部290が担当してもよく、制御部290が実行していた処理の少なくとも一部を制御部190が担当してもよい。 The first to third embodiments of the present disclosure have been described in detail above, but as long as this does not impede the operation of the program, the control unit 290 may take over some of the processing that the control unit 190 performed in the description of each embodiment, or the control unit 190 may take over at least some of the processing that the control unit 290 performed.

例えば、仮想空間501や仮想オブジェクトの生成、仮想空間画像の生成を制御部290が実行する、いわゆるクラウド型のシステムを実現するプログラムとしてもよい。また、サーバ20を備えずに、いわゆるスタンドアローン型のプログラムとしてもよい。また、サーバ20を備えずに、ユーザ端末同士でP2P通信をすることで、同一の仮想空間501内に複数のユーザオブジェクトが存在可能なように構成してもよい。 For example, the program may be a so-called cloud-type system in which the control unit 290 generates the virtual space 501 and virtual objects, and generates virtual space images. Also, the program may be a so-called stand-alone type program without the server 20. Also, the program may be configured so that multiple user objects can exist in the same virtual space 501 by P2P communication between user terminals without the server 20.

また、本開示の第1から第3の実施の形態の2つ以上が組み合わされてもよい。例えば、第2の実施の形態と第3の実施の形態とを組み合わせることにより、制御部190は、一人称視点の画像に特定のオブジェクトが含まれ、かつ当該画像における特定のオブジェクトの表示サイズが所定のサイズより大きい際に、特定のオブジェクトに対して所定の処理を施してもよい。 In addition, two or more of the first to third embodiments of the present disclosure may be combined. For example, by combining the second and third embodiments, the control unit 190 may perform a predetermined process on a specific object when the specific object is included in a first-person perspective image and the display size of the specific object in the image is larger than a predetermined size.

本開示の第3の実施の形態に係る内容を列記すると以下の通りである。
(項目3-1)
コンピュータにより実行されるプログラムであって、
前記プログラムは、前記コンピュータを、
仮想空間を生成する手段と、
前記仮想空間に仮想カメラ、ユーザオブジェクト及び特定のオブジェクトを配置する手段と、
前記仮想カメラに基づいて、前記仮想空間の画像である仮想空間画像を生成する手段、として機能させ、
前記仮想空間画像を生成する手段として、
前記仮想空間画像における前記特定のオブジェクトの表示サイズが所定のサイズより大きい際に、前記特定のオブジェクトを所定の表示態様で表示させる、
プログラム。
このような構成により、他人の著作物である特定のオブジェクトが仮想空間画像において所定のサイズよりも大きく映る場合であっても、当該著作物が鮮明に映ることを避けるような表示態様で仮想空間画像を生成することができる。これにより、仮想空間画像において他人の著作物が鮮明に映り込むことを防ぐことができる。
The contents relating to the third embodiment of the present disclosure are listed as follows.
(Item 3-1)
A program executed by a computer,
The program causes the computer to
A means for generating a virtual space;
means for placing a virtual camera, a user object, and a specific object in the virtual space;
a means for generating a virtual space image, which is an image of the virtual space, based on the virtual camera;
As a means for generating the virtual space image,
When a display size of the specific object in the virtual space image is larger than a predetermined size, the specific object is displayed in a predetermined display mode.
program.
With this configuration, even if a specific object that is a work of another person appears larger than a predetermined size in the virtual space image, the virtual space image can be generated in a display mode that avoids the work from appearing clearly. This makes it possible to prevent the work of another person from appearing clearly in the virtual space image.

(項目3-2)
前記仮想空間画像を生成する手段として、
前記仮想空間画像に対する前記特定のオブジェクトの占有率が第1閾値以上である際に、前記特定のオブジェクトの表示サイズが前記所定のサイズより大きいとして、前記特定のオブジェクトを前記所定の表示態様で表示させる、項目3-1に記載のプログラム。
このような構成により、例えば、仮想空間においてサイズが大きい他人の著作物が存在する場合であっても、当該著作物が鮮明に映ることを避けるような表示態様で仮想空間画像を生成することができる。
(Item 3-2)
As a means for generating the virtual space image,
When the occupancy rate of the specific object in the virtual space image is equal to or greater than a first threshold value, the display size of the specific object is larger than the predetermined size, and the specific object is displayed in the predetermined display manner.
With this configuration, even if, for example, a large work by another person is present in the virtual space, a virtual space image can be generated in a display manner that avoids the work being displayed clearly.

(項目3-3)
前記仮想空間画像を生成する手段として、
前記仮想空間画像における前記特定のオブジェクトの表示倍率が第2閾値以上である際に、前記特定のオブジェクトの表示サイズが前記所定のサイズより大きいとして、前記特定のオブジェクトを前記所定の表示態様で表示させる、項目3-1または項目3-2に記載のプログラム。
このような構成により、例えば、ユーザオブジェクトが他人の著作物に近づくことにより、仮想空間画像において当該著作物が所定のサイズよりも大きく映る場合であっても、当該著作物が鮮明に映ることを避けるような表示態様で仮想空間画像を生成することができる。
(Item 3-3)
As a means for generating the virtual space image,
When the display magnification of the specific object in the virtual space image is equal to or greater than a second threshold value, the display size of the specific object is larger than the predetermined size, and the specific object is displayed in the predetermined display mode.
With this configuration, for example, even if a user object approaches another person's work and the work appears larger than a predetermined size in the virtual space image, a virtual space image can be generated in a display manner that avoids the work being displayed clearly.

(項目3-4)
前記特定のオブジェクトは、静的なオブジェクトである、項目3-1から項目3-3のいずれか1項に記載のプログラム。
このような構成により、仮想空間画像において、他人の著作物である可能性の高い静的なオブジェクトが鮮明に映り込むことを防ぐことができる。
(Item 3-4)
The program according to any one of items 3-1 to 3-3, wherein the specific object is a static object.
With this configuration, it is possible to prevent static objects that are likely to be the copyrighted work of others from appearing clearly in the virtual space image.

(項目3-5)
前記ユーザオブジェクトには、一のプレイヤが操作するプレイヤオブジェクトと、前記一のプレイヤとは異なる他のプレイヤ又は前記コンピュータが操作する他のプレイヤオブジェクトとを含み、
前記特定のオブジェクトは、前記他のプレイヤオブジェクトである、項目3-1から項目3-4のいずれか1項に記載のプログラム。
このような構成により、仮想空間画像において、他人の著作物である可能性の高い他のプレイヤオブジェクトが鮮明に映り込むことを防ぐことができる。
(Item 3-5)
the user objects include a player object operated by one player, and another player object operated by another player different from the one player or by the computer,
The program according to any one of items 3-1 to 3-4, wherein the specific object is the other player object.
With this configuration, it is possible to prevent other player objects, which are likely to be the copyrighted works of others, from being clearly reflected in the virtual space image.

(項目3-6)
前記所定の表示態様での表示として、前記特定のオブジェクトの視認性を低下させる、項目3-1から項目3-5のいずれか1項に記載のプログラム。
このような構成により、他人の著作物である特定のオブジェクトが仮想空間画像に含まれる場合であっても、複雑な処理を施すことなく、当該著作物が仮想空間画像に鮮明に映り込むことを防ぐことができる。
(Item 3-6)
The program according to any one of items 3-1 to 3-5, wherein the visibility of the specific object is reduced as the display in the predetermined display mode.
With this configuration, even if a specific object that is the work of another person is included in the virtual space image, the work can be prevented from being clearly reflected in the virtual space image without performing complex processing.

1または複数の情報処理装置を備える情報処理システムであって、
仮想空間を生成する処理と、
前記仮想空間に仮想カメラ、ユーザオブジェクト及び特定のオブジェクトを配置する処理と、
前記仮想カメラに基づいて、前記仮想空間の画像である仮想空間画像を生成する処理と、を行い、
前記仮想空間画像を生成する処理において、
前記仮想空間画像における前記特定のオブジェクトの表示サイズが所定のサイズより大きい際に、前記特定のオブジェクトを所定の表示態様で表示する、
情報処理システム。
このような構成により、他人の著作物である特定のオブジェクトが仮想空間画像において所定のサイズよりも大きく映る場合であっても、当該著作物が鮮明に映ることを避けるような表示態様で仮想空間画像を生成することができる。これにより、仮想空間画像において他人の著作物が鮮明に映り込むことを防ぐことができる。
An information processing system including one or more information processing devices,
A process of generating a virtual space;
A process of placing a virtual camera, a user object, and a specific object in the virtual space;
A process of generating a virtual space image, which is an image of the virtual space, based on the virtual camera;
In the process of generating the virtual space image,
When a display size of the specific object in the virtual space image is larger than a predetermined size, the specific object is displayed in a predetermined display mode.
Information processing system.
With this configuration, even if a specific object that is a work of another person appears larger than a predetermined size in the virtual space image, the virtual space image can be generated in a display mode that avoids the work from appearing clearly. This makes it possible to prevent the work of another person from appearing clearly in the virtual space image.

1:システム、10:ユーザ端末、20:サーバ、30:ネットワーク、130:タッチスクリーン、150:(ユーザ端末の)記憶部、190:(ユーザ端末の)制御部、250:(サーバの)記憶部、290:(サーバの)制御部、501:仮想空間、502:ユーザオブジェクト、503:仮想カメラ 1: System, 10: User terminal, 20: Server, 30: Network, 130: Touch screen, 150: Memory unit (of user terminal), 190: Control unit (of user terminal), 250: Memory unit (of server), 290: Control unit (of server), 501: Virtual space, 502: User object, 503: Virtual camera

Claims (6)

コンピュータにより実行されるプログラムであって、
前記プログラムは、前記コンピュータを、
仮想空間を生成する手段と、
前記仮想空間に仮想カメラ、ユーザオブジェクト及び特定のオブジェクトを配置する手段と、
前記仮想カメラに基づいて、前記仮想空間の画像である仮想空間画像を生成する手段、として機能させ、
前記仮想空間画像を生成する手段として、
前記仮想空間画像における前記特定のオブジェクトの表示サイズが所定のサイズより大きい際に、前記特定のオブジェクトを所定の表示態様で表示させる、
プログラム。
A program executed by a computer,
The program causes the computer to
A means for generating a virtual space;
means for placing a virtual camera, a user object, and a specific object in the virtual space;
a means for generating a virtual space image, which is an image of the virtual space, based on the virtual camera;
As a means for generating the virtual space image,
When a display size of the specific object in the virtual space image is larger than a predetermined size, the specific object is displayed in a predetermined display mode.
program.
前記仮想空間画像を生成する手段として、
前記仮想空間画像に対する前記特定のオブジェクトの占有率が第1閾値以上である際に、前記特定のオブジェクトの表示サイズが前記所定のサイズより大きいとして、前記特定のオブジェクトを前記所定の表示態様で表示させる、請求項1に記載のプログラム。
As a means for generating the virtual space image,
The program according to claim 1 , wherein when an occupancy rate of the specific object in the virtual space image is equal to or greater than a first threshold, the display size of the specific object is determined to be larger than the predetermined size, and the specific object is displayed in the predetermined display manner.
前記仮想空間画像を生成する手段として、
前記仮想空間画像における前記特定のオブジェクトの表示倍率が第2閾値以上である際に、前記特定のオブジェクトの表示サイズが前記所定のサイズより大きいとして、前記特定のオブジェクトを前記所定の表示態様で表示させる、請求項1に記載のプログラム。
As a means for generating the virtual space image,
The program according to claim 1 , wherein when a display magnification of the specific object in the virtual space image is equal to or greater than a second threshold value, the display size of the specific object is deemed to be larger than the predetermined size, and the specific object is displayed in the predetermined display manner.
前記特定のオブジェクトは、静的なオブジェクトである、請求項1に記載のプログラム。 The program of claim 1, wherein the specific object is a static object. 前記ユーザオブジェクトには、一のプレイヤが操作するプレイヤオブジェクトと、前記一のプレイヤとは異なる他のプレイヤ又は前記コンピュータが操作する他のプレイヤオブジェクトとを含み、
前記特定のオブジェクトは、前記他のプレイヤオブジェクトである、請求項1に記載のプログラム。
the user objects include a player object operated by one player, and another player object operated by another player different from the one player or by the computer,
The program according to claim 1 , wherein the specific object is the other player's object.
1または複数の情報処理装置を備える情報処理システムであって、
仮想空間を生成する処理と、
前記仮想空間に仮想カメラ、ユーザオブジェクト及び特定のオブジェクトを配置する処理と、
前記仮想カメラに基づいて、前記仮想空間の画像である仮想空間画像を生成する処理と、を行い、
前記仮想空間画像を生成する処理において、
前記仮想空間画像における前記特定のオブジェクトの表示サイズが所定のサイズより大きい際に、前記特定のオブジェクトを所定の表示態様で表示する、
情報処理システム。
An information processing system including one or more information processing devices,
A process of generating a virtual space;
A process of placing a virtual camera, a user object, and a specific object in the virtual space;
A process of generating a virtual space image, which is an image of the virtual space, based on the virtual camera;
In the process of generating the virtual space image,
When a display size of the specific object in the virtual space image is larger than a predetermined size, the specific object is displayed in a predetermined display mode.
Information processing system.
JP2023056252A 2022-09-28 2023-03-30 Program and information processing system Active JP7561231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023056252A JP7561231B2 (en) 2022-09-28 2023-03-30 Program and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022155506A JP7316430B1 (en) 2022-09-28 2022-09-28 Program and information processing system
JP2023056252A JP7561231B2 (en) 2022-09-28 2023-03-30 Program and information processing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022155506A Division JP7316430B1 (en) 2022-09-28 2022-09-28 Program and information processing system

Publications (2)

Publication Number Publication Date
JP2024049299A true JP2024049299A (en) 2024-04-09
JP7561231B2 JP7561231B2 (en) 2024-10-03

Family

ID=87428077

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022155506A Active JP7316430B1 (en) 2022-09-28 2022-09-28 Program and information processing system
JP2023056252A Active JP7561231B2 (en) 2022-09-28 2023-03-30 Program and information processing system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022155506A Active JP7316430B1 (en) 2022-09-28 2022-09-28 Program and information processing system

Country Status (1)

Country Link
JP (2) JP7316430B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025084433A1 (en) * 2023-10-19 2025-04-24 Sony Group Corporation Information processing system, information processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001178963A (en) * 1999-12-23 2001-07-03 Sega Corp Video game device, image display device and method, moving image display device and method, and recording medium
JP2020160651A (en) * 2019-03-26 2020-10-01 株式会社バンダイナムコエンターテインメント Program and image generator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001178963A (en) * 1999-12-23 2001-07-03 Sega Corp Video game device, image display device and method, moving image display device and method, and recording medium
JP2020160651A (en) * 2019-03-26 2020-10-01 株式会社バンダイナムコエンターテインメント Program and image generator

Also Published As

Publication number Publication date
JP7316430B1 (en) 2023-07-27
JP2024049192A (en) 2024-04-09
JP7561231B2 (en) 2024-10-03

Similar Documents

Publication Publication Date Title
JP7577781B2 (en) PROGRAM AND INFORMATION PROCESSING APPARATUS
US9952755B2 (en) Information processing device, information processing method, data structure of content file, GUI placement simulator, and GUI placement setting assisting method
US20180161674A1 (en) Terminal device
US20240082713A1 (en) Storage medium, method, and information processing apparatus
JP2013127683A (en) Program, information storage medium, terminal, server, and network system
JP2007229204A (en) Image generation method, image generation apparatus, and image generation program
JP7695287B2 (en) Program and information processing system
JP7561231B2 (en) Program and information processing system
JP2024144533A (en) program
CN112905280B (en) Page display method, device, equipment and storage medium
JP6193466B1 (en) Image display device, image processing device, image processing system, image processing method, and image processing program
JP7624535B2 (en) Program and information processing system
JP7480385B2 (en) Program and information processing system
JP6956209B2 (en) Terminal devices and programs
JP7504931B2 (en) Program, game device, and game system
JP2023108719A (en) Program, game device, and game system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240701

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240920

R150 Certificate of patent or registration of utility model

Ref document number: 7561231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150