[go: up one dir, main page]

JP2018069032A - Gaming method and gaming program - Google Patents

Gaming method and gaming program Download PDF

Info

Publication number
JP2018069032A
JP2018069032A JP2017137464A JP2017137464A JP2018069032A JP 2018069032 A JP2018069032 A JP 2018069032A JP 2017137464 A JP2017137464 A JP 2017137464A JP 2017137464 A JP2017137464 A JP 2017137464A JP 2018069032 A JP2018069032 A JP 2018069032A
Authority
JP
Japan
Prior art keywords
character
user
state
touch screen
input operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017137464A
Other languages
Japanese (ja)
Inventor
洋平 三宅
Yohei Miyake
洋平 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017137464A priority Critical patent/JP2018069032A/en
Publication of JP2018069032A publication Critical patent/JP2018069032A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a gaming method that can intuitively give a user feedback for an input operation.SOLUTION: Provided is a gaming method for controlling a character object displayed on a touch screen 2 according to a user input operation. The gaming method includes: (a) a step of displaying an operation object 40 on the touch screen 2 from the start point of the input operation toward the end point of the input operation; (b) a step of making a character object 100 execute a prescribed action on the basis of the input operation; (c) a step of detecting the status of the character object 100 at step (b); and (d) a step of displaying, on the touch screen 2, prescribed information associated with the detected status of the character object 100 in addition to the operation object 40.SELECTED DRAWING: Figure 10

Description

本発明は、ゲーム方法およびゲームプログラムに関する。   The present invention relates to a game method and a game program.

特許文献1には、タッチパネル上でスライド操作がされた場合、スライド操作開始点に弾性オブジェクトを表示し、スライド操作終了点に向けて弾性オブジェクトが弾性変形を伴いながら延びるように表示されるユーザインターフェースプログラムが開示されている。
特許文献2には、スマートフォンによって実行されるビデオゲームにおいて、スマートフォンのタッチパネルに表示されるキャラクタオブジェクトをユーザがタッチ操作することで、タッチパネルに対するスライド操作方向とキャラクタオブジェクトの移動やジャンプなどの各アクションとを対応付けてキャラクタオブジェクトを制御するゲーム操作方法が開示されている。
特許文献3には、格闘技ゲームにおいて、複数の入力操作により特定される入力手順が、基準手順に一致するか否かを判断し、入力操作が基準手順に一致した場合には、入力操作の内容を視覚的に識別するための識別記号を画面上に表示させることが開示されている。
非特許文献1には、スマホゲームの横スクロールアクションにおいて、上フリックでジャンプ後、ジャンプ中に下フリックすると、兜割りという技が出せることが開示されている。このようなゲームでは、技を出すのに成功すると、画面上のキャラクタに付随してアクション名を表示させることが知られている。
In Patent Document 1, when a slide operation is performed on the touch panel, an elastic object is displayed at a slide operation start point, and the user interface is displayed so that the elastic object extends while being elastically deformed toward the slide operation end point. The program is disclosed.
Patent Document 2 discloses that in a video game executed by a smartphone, a user touch-operates a character object displayed on the touch panel of the smartphone, so that a slide operation direction with respect to the touch panel and actions such as movement and jump of the character object A game operation method for controlling a character object in association with each other is disclosed.
In Patent Literature 3, in a martial arts game, it is determined whether or not an input procedure specified by a plurality of input operations matches a reference procedure. If the input operation matches a reference procedure, the contents of the input operation are determined. It is disclosed that an identification symbol for visually identifying the image is displayed on the screen.
Non-Patent Document 1 discloses that in a horizontal scroll action of a smartphone game, after jumping with an upper flick and then flicking down while jumping, a technique of splitting can be achieved. In such a game, it is known that an action name is displayed along with a character on the screen when the technique is successfully completed.

特開2015−222595号公報Japanese Patent Laying-Open No. 2015-222595 特開2016−051266号公報Japanese Patent Laid-Open No. 2006-051266 特開平09−239149号公報JP 09-239149 A

“SAOメモデフ(メモリーデフラグ)攻略Wiki”、[online]、平成28年9月15日、Game8、[平成28年10月3日検索]、インターネット<URL:https://game8.jp/sao-md/boss/86386>“SAO Memo Def (Memory Defrag) Strategy Wiki”, [online], September 15, 2016, Game 8, [October 3, 2016 search], Internet <URL: https://game8.jp/sao- md / boss / 86386>

特許文献2に開示のようなビデオゲーム(例えば、いわゆるスマホゲーム)において、キャラクタオブジェクトを所定の状態とするためには、ユーザが所定の入力操作を行う必要がある。しかしながら、従来は、入力操作結果のユーザに対するフィードバックが不十分であったため、ユーザの入力操作に誤りがあった場合に、なぜ入力に失敗したのかユーザが直感的に把握することが難しかった。   In a video game (for example, a so-called smartphone game) disclosed in Patent Document 2, a user needs to perform a predetermined input operation in order to set a character object in a predetermined state. However, conventionally, feedback to the user of the input operation result has been insufficient, and it has been difficult for the user to intuitively understand why the input has failed when there is an error in the user's input operation.

本開示は、入力操作に対するフィードバックをユーザへ直感的に与えることが可能なゲーム方法およびゲームプログラムを提供することを目的とする。   An object of the present disclosure is to provide a game method and a game program capable of intuitively giving feedback to an input operation to a user.

本開示に示す一実施形態によれば、ユーザの入力操作に従って、タッチスクリーンに表示されるキャラクタオブジェクトを制御するゲーム方法が提供される。当該ゲーム方法は、
(a)前記入力操作の開始点から前記入力操作の終了点に向けて、前記タッチスクリーン上に操作オブジェクトを表示させるステップと、
(b)前記入力操作に基づいて、前記キャラクタオブジェクトに所定の動作を実行させるステップと、
(c)前記ステップ(b)における前記キャラクタオブジェクトの状態を検出するステップと、
(d)検出された前記キャラクタオブジェクトの前記状態に関連付けられた所定の情報を、前記操作オブジェクトに付随して前記タッチスクリーン上に表示させるステップと、を含む。
According to an embodiment shown in the present disclosure, a game method for controlling a character object displayed on a touch screen in accordance with a user input operation is provided. The game method is
(A) displaying an operation object on the touch screen from a start point of the input operation toward an end point of the input operation;
(B) causing the character object to perform a predetermined action based on the input operation;
(C) detecting the state of the character object in the step (b);
(D) displaying predetermined information associated with the detected state of the character object on the touch screen in association with the operation object.

また、本開示に示す一実施形態によれば、上記に記載のゲーム方法をコンピュータに実行させるためのゲームプログラムが提供される。   Moreover, according to one embodiment shown in this indication, a game program for making a computer perform the above-mentioned game methods is provided.

本開示によれば、入力操作に対するフィードバックをユーザへ直感的に与えることが可能なゲーム方法およびゲームプログラムを提供することができる。   According to the present disclosure, it is possible to provide a game method and a game program that can intuitively give feedback to an input operation to a user.

本実施形態に係るユーザ端末を示す図である。It is a figure which shows the user terminal which concerns on this embodiment. 本実施形態に係るユーザ端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the user terminal which concerns on this embodiment. 本実施形態に係るユーザ端末の機能ブロック図である。It is a functional block diagram of the user terminal concerning this embodiment. 本実施形態に係るユーザ端末のタッチスクリーン上に表示されるゲームのゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen of the game displayed on the touch screen of the user terminal which concerns on this embodiment. 操作検出部が、ユーザの入力操作に応じてプレイヤキャラクタを移動させる方向を検出する処理を示す図である。It is a figure which shows the process in which an operation detection part detects the direction which moves a player character according to a user's input operation. プレイヤキャラクタ(ここでは、自キャラクタ)の動作テーブルを示す図である。It is a figure which shows the operation | movement table of a player character (here self character). (A)は、タッチスクリーン上に表示される操作オブジェクトの一例を示す図であり、(B)は操作オブジェクトが弾性変形した状態を示す図である。(A) is a figure which shows an example of the operation object displayed on a touch screen, (B) is a figure which shows the state which the operation object elastically deformed. 本実施形態に係るゲームプログラムで実装される主要な機能モジュールを示す模式図である。It is a schematic diagram which shows the main functional modules mounted with the game program which concerns on this embodiment. 本実施形態において操作オブジェクト内にプレイヤキャラクタの状態に関する情報を表示させるための処理を示すフローチャートである。It is a flowchart which shows the process for displaying the information regarding the state of a player character in an operation object in this embodiment. (A)および(B)は、図9のフローチャートにおけるゲーム画面の例を示す図である。(A) And (B) is a figure which shows the example of the game screen in the flowchart of FIG. ユーザがプレイヤキャラクタに所定のアクションを実行させたい場合の画面例であり、(A)はプレイヤキャラクタがジャンプしている状態の画面例を示す図であり、(B)は、所定のアクションの入力操作が成功した場合の画面例を示す図であり、(C)は当該アクションの入力操作が失敗した場合の画面例を示す図である。It is an example of a screen when a user wants a player character to execute a predetermined action, (A) is a diagram showing an example of a screen in a state where the player character is jumping, and (B) is an input of a predetermined action It is a figure which shows the example of a screen when operation is successful, (C) is a figure which shows the example of a screen when input operation of the said action fails. ユーザがプレイヤキャラクタに所定のアクションを実行させたい場合の画面例であり、(A)はプレイヤキャラクタがジャンプしている状態の画面例を示す図であり、(B)は、所定のアクションの入力操作が成功した場合の画面例を示す図であり、(C)は当該アクションの入力操作が失敗した場合の画面例を示す図である。It is an example of a screen when a user wants a player character to execute a predetermined action, (A) is a diagram showing an example of a screen in a state where the player character is jumping, and (B) is an input of a predetermined action It is a figure which shows the example of a screen when operation is successful, (C) is a figure which shows the example of a screen when input operation of the said action fails. 変形例に係るゲーム画面を示す図である。It is a figure which shows the game screen which concerns on a modification. 別の変形例に係る操作オブジェクトを示す図である。It is a figure which shows the operation object which concerns on another modification.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)本開示の一実施形態に係るゲーム方法は、ユーザの入力操作に従って、タッチスクリーンに表示されるキャラクタオブジェクトを制御するゲーム方法であって、
当該ゲーム方法は、
(a)前記入力操作の開始点から前記入力操作の終了点に向けて、前記タッチスクリーン上に操作オブジェクトを表示させるステップと、
(b)前記入力操作に基づいて、前記キャラクタオブジェクトに所定の動作を実行させるステップと、
(c)前記ステップ(b)における前記キャラクタオブジェクトの状態を検出するステップと、
(d)検出された前記キャラクタオブジェクトの前記状態に関連付けられた所定の情報を、前記操作オブジェクトに付随して前記タッチスクリーン上に表示させるステップと、を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) A game method according to an embodiment of the present disclosure is a game method for controlling a character object displayed on a touch screen in accordance with a user input operation,
The game method is
(A) displaying an operation object on the touch screen from a start point of the input operation toward an end point of the input operation;
(B) causing the character object to perform a predetermined action based on the input operation;
(C) detecting the state of the character object in the step (b);
(D) displaying predetermined information associated with the detected state of the character object on the touch screen in association with the operation object.

上記方法によれば、入力操作に対するフィードバックをユーザへ直感的に与えることができる。   According to the above method, feedback to the input operation can be intuitively given to the user.

(2)前記操作オブジェクトは、前記開始点と前記終了点との間に表示されるオブジェクトであり、
前記ステップ(a)において、前記操作オブジェクトは、前記基準点側の部分および前記終了点側の部分のいずれか一方が、他方の部分よりも大きい拡大部となるように表示され、
前記ステップ(d)において、前記所定の情報は、前記拡大部の内側に表示されても良い。
(2) The operation object is an object displayed between the start point and the end point,
In the step (a), the operation object is displayed such that one of the reference point side portion and the end point side portion is an enlarged portion larger than the other portion,
In the step (d), the predetermined information may be displayed inside the enlarged portion.

上記方法によれば、タッチスクリーン上のデッドスペースである操作オブジェクトの拡大部に状態表示情報を表示させることで、スマートフォンのような狭い画面を有効利用することができる。   According to the above method, a narrow screen such as a smartphone can be effectively used by displaying the state display information on the enlarged portion of the operation object which is a dead space on the touch screen.

(3)前記ステップ(d)において、前記開始点と前記終了点との位置関係に関わらず、前記タッチスクリーン上における前記所定の情報の表示角度は固定されていても良い。   (3) In the step (d), the display angle of the predetermined information on the touch screen may be fixed regardless of the positional relationship between the start point and the end point.

上記方法によれば、操作オブジェクト内に表示された情報の視認性を確保することができる。   According to the above method, the visibility of the information displayed in the operation object can be ensured.

(4)前記ステップ(b)において、第一の入力操作を行うことで前記キャラクタオブジェクトを第一の状態とし、前記第一の状態において第二の入力操作を行うことで前記所定の動作が実行されても良い。   (4) In the step (b), the character object is set to a first state by performing a first input operation, and the predetermined operation is performed by performing a second input operation in the first state. May be.

(5)前記ステップ(b)において、第一の入力操作を行うことで前記キャラクタオブジェクトを第一の状態とした後に第二の状態とし、前記第一の状態または前記第二の状態において第二の入力操作を行うことで前記所定の動作が実行されても良い。   (5) In the step (b), the character object is set to the first state by performing a first input operation, and then set to the second state, and the second state is set to the second state in the first state or the second state. The predetermined operation may be executed by performing the input operation.

これらの方法によれば、複数の入力操作が必要な動作(アクション)についても、当該入力操作の成否をユーザに対して分かりやすくフィードバックすることができる。   According to these methods, the success or failure of the input operation can be fed back to the user in an easy-to-understand manner even for an operation (action) that requires a plurality of input operations.

(6)本開示の一実施形態に係るプログラムは、上記(1)から(5)のいずれかに記載のゲーム方法をコンピュータに実行させるためのプログラムである。   (6) A program according to an embodiment of the present disclosure is a program for causing a computer to execute the game method according to any one of (1) to (5).

この構成によれば、入力操作に対するフィードバックをユーザへ直感的に与えることが可能なプログラムを提供することができる。   According to this configuration, it is possible to provide a program capable of intuitively giving feedback to the input operation to the user.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

本開示の実施の形態によるゲームプログラムは、図1に示されるように、タッチスクリーン2を備えたユーザ端末1において実行されるものである。ユーザ端末1は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。ユーザ端末1は、例えば、アプリ等を配信するプラットフォームを介してゲームプログラムをインストールする。ユーザ端末1は、ユーザ端末1にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。ユーザは、タッチスクリーン2を介してゲーム内のプレイヤキャラクタ(キャラクタオブジェクトの一例)を操作することができる。ユーザ端末1は、例えば、スマートフォン、PDA(Personal Digital Assistant)、タブレット型コンピュータ等の携帯可能な端末であってもよいし、パーソナルコンピュータ、ビデオゲーム機器等であってもよい。   As shown in FIG. 1, the game program according to the embodiment of the present disclosure is executed on the user terminal 1 including the touch screen 2. The user terminal 1 provides the user with an environment for playing a game according to the game program by executing the game program. For example, the user terminal 1 installs a game program via a platform that distributes applications and the like. The user terminal 1 enables a user to play a game by executing a game program installed in the user terminal 1 or a game program pre-installed in advance. The user can operate a player character (an example of a character object) in the game via the touch screen 2. The user terminal 1 may be a portable terminal such as a smartphone, a PDA (Personal Digital Assistant), or a tablet computer, or may be a personal computer, a video game device, or the like.

なお、ユーザ端末1はネットワークを介してゲーム・サーバと通信を行ってもよい。この場合は、以下の実施形態におけるユーザ端末1に関する様々な機能の全部または一部はゲーム・サーバが担い、例えば、ゲーム・サーバで生成されるゲーム画像をブラウザ等のアプリケーションによりユーザ端末1で表示できるように構成してもよい。さらに、ゲーム・サーバを介して、ユーザ端末1を別のユーザ端末と通信可能な構成とすることもできる。   Note that the user terminal 1 may communicate with the game server via a network. In this case, all or a part of various functions related to the user terminal 1 in the following embodiment is performed by the game server. For example, a game image generated by the game server is displayed on the user terminal 1 by an application such as a browser. You may comprise so that it can do. Further, the user terminal 1 can be configured to be able to communicate with another user terminal via the game server.

図2に示されるように、ユーザ端末1は、ハードウェア構成として、互いにバス接続されたCPU(Central Processing Unit)3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備えている。このうち主記憶4は例えばDRAM(Dynamic Random Access Memory)などで構成されており、補助記憶5は例えばHDD(Hard Disk Drive)などで構成されている。補助記憶5には、本実施の形態によるゲームプログラムが格納されている。ゲームプログラムは、主記憶4上に展開されCPU3によって実行される。なお、主記憶4上には、CPU3がゲームプログラムに従って動作している間に生成したデータやCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりユーザ端末1とネットワークとの接続を確立する。入力部8は、タッチスクリーン2である表示部7に対するユーザの操作を検知して、ユーザ端末1に対して何らかの操作があったことを検知する。   As shown in FIG. 2, the user terminal 1 includes, as a hardware configuration, a CPU (Central Processing Unit) 3, a main memory 4, an auxiliary memory 5, a transmission / reception unit 6, a display unit 7, and an input unit 8 connected to each other via a bus. It has. Of these, the main memory 4 is composed of, for example, a DRAM (Dynamic Random Access Memory), and the auxiliary memory 5 is composed of, for example, an HDD (Hard Disk Drive). The auxiliary memory 5 stores a game program according to the present embodiment. The game program is expanded on the main memory 4 and executed by the CPU 3. Note that the main memory 4 also temporarily stores data generated while the CPU 3 is operating according to the game program and data used by the CPU 3. The transmission / reception unit 6 establishes a connection between the user terminal 1 and the network under the control of the CPU 3. The input unit 8 detects a user operation on the display unit 7, which is the touch screen 2, and detects that there is some operation on the user terminal 1.

図3は、本実施形態に係るユーザ端末1の機能ブロック図の一例を示す。
本実施の形態における表示部7および入力部8は上述したタッチスクリーン2に相当する。タッチスクリーン2は、図3に示されるように、入力部8に相当するタッチセンシング部10と、表示部7に相当するディスプレイ20とを有している。タッチスクリーン2は、ユーザのタッチ操作(タッチスクリーン2における物理的接触操作等)を受け付ける。具体的には、タッチセンシング部10はユーザによるタッチ操作に応じた操作信号を制御部30へ出力する。タッチ操作は、ユーザの指によりなされてもよいし、スタイラス等でもよい。ディスプレイ20は、制御部30から出力される表示信号に基づいてユーザ操作に対応する画像を表示する。ディスプレイ20は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)などの表示装置によって実現される。
FIG. 3 shows an example of a functional block diagram of the user terminal 1 according to the present embodiment.
The display unit 7 and the input unit 8 in the present embodiment correspond to the touch screen 2 described above. As illustrated in FIG. 3, the touch screen 2 includes a touch sensing unit 10 corresponding to the input unit 8 and a display 20 corresponding to the display unit 7. The touch screen 2 receives a user's touch operation (such as a physical contact operation on the touch screen 2). Specifically, the touch sensing unit 10 outputs an operation signal corresponding to the touch operation by the user to the control unit 30. The touch operation may be performed by a user's finger, a stylus, or the like. The display 20 displays an image corresponding to the user operation based on the display signal output from the control unit 30. The display 20 is realized by a display device such as an LCD (Liquid Crystal Display) or an organic EL (electroluminescence).

制御部30は、タッチセンシング部10が受け付けたユーザからの指示に基づいてゲームプログラムを実行し、ゲーム世界においてプレイヤとして機能するプレイヤキャラクタの動作を制御しつつ、ゲームを進行させる。制御部30は、ゲームプログラムを実行することにより、入力操作受付部32と、キャラクタ操作検出部34と、オブジェクト制御部36と、表示制御部38と、の各機能を発揮する。   The control unit 30 executes the game program based on an instruction from the user received by the touch sensing unit 10, and advances the game while controlling the action of the player character that functions as a player in the game world. The control unit 30 exhibits the functions of the input operation reception unit 32, the character operation detection unit 34, the object control unit 36, and the display control unit 38 by executing the game program.

入力操作受付部32は、タッチスクリーン2の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部32は、ユーザの指などがタッチセンシング部10に接近したことを、タッチスクリーン2を構成する面の横軸および縦軸からなる座標系の座標として検出する。   The input operation accepting unit 32 accepts a user input operation based on the output of the touch screen 2. Specifically, the input operation receiving unit 32 detects that a user's finger or the like has approached the touch sensing unit 10 as coordinates in a coordinate system including a horizontal axis and a vertical axis of a surface constituting the touch screen 2.

入力操作受付部32は、タッチスクリーン2に対するユーザの操作を判別する。入力操作受付部32は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「長押し操作(ロングタッチ操作)」、(5)「ドラッグ操作(スワイプ操作)」 などのユーザの操作を判別する。入力操作受付部32が判別するユーザの操作は、上記に限られない。例えば、タッチセンシング部10が、ユーザがタッチセンシング部10に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部32は、ユーザが押下した圧力の大きさを判別する。   The input operation reception unit 32 determines a user operation on the touch screen 2. For example, the input operation accepting unit 32 includes (1) “approach operation”, (2) “release operation”, (3) “tap operation”, (4) “long press operation (long touch operation)”, (5) Identify user operations such as “drag operation (swipe operation)”. The user operation determined by the input operation receiving unit 32 is not limited to the above. For example, when the touch sensing unit 10 has a mechanism that can detect the magnitude of the pressure that the user presses against the touch sensing unit 10, the input operation reception unit 32 determines the magnitude of the pressure that the user pressed. .

(1)「接近操作」とは、ユーザが指などをタッチスクリーン2に接近させる操作である。タッチスクリーン2は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン2に接触したことを含む)をタッチセンシング部10により検出し、検出したタッチスクリーン2の座標に応じた信号を入力操作受付部32へ出力する。制御部30は、タッチスクリーン2へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。   (1) The “approach operation” is an operation in which the user brings a finger or the like closer to the touch screen 2. The touch screen 2 detects that the user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 2) by the touch sensing unit 10, and outputs a signal corresponding to the detected coordinates of the touch screen 2. The data is output to the input operation receiving unit 32. The control unit 30 determines that the state is “touch-on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 2 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン2を接近操作している状態を止める操作である。制御部30は、例えば、ユーザが指をタッチスクリーン2に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部30は、タッチスクリーン2へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。   (2) “Release operation” is an operation for stopping the state in which the user is operating the touch screen 2 to approach. For example, when the user performs an operation of releasing the finger from a state where the user is in contact with the touch screen 2, the control unit 30 determines that the user's operation is a “release operation”. The control unit 30 determines that the state is changed from the “touch-on state” to the “touch-off state” when the approach is not detected from the state where the approach of the user's finger or the like to the touch screen 2 is detected. To do.

(3)「タップ操作」とは、ユーザがタッチスクリーン2に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部32は、接近操作が検出されない状態(ユーザの指などがタッチスクリーン2から離れており、タッチセンシング部10がユーザの指などの接近を検出していない状態)から、タッチスクリーン2の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。制御部30は、初期タッチ位置の座標と、リリース操作をした座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作の座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。   (3) “Tap operation” refers to performing a release operation at a position where the user has performed an approach operation after the user performs an approach operation in which a finger or the like approaches the touch screen 2. The input operation receiving unit 32 is in a state where no approaching operation is detected (a state where the user's finger or the like is separated from the touch screen 2 and the touch sensing unit 10 does not detect the approach of the user's finger or the like). When it is detected that the user's finger or the like has approached based on the output, the detected coordinates are held as the “initial touch position”. When the coordinates of the initial touch position and the coordinates of the release operation are substantially the same (when the coordinates of the release operation are detected within the coordinates within a certain range from the coordinates where the approach operation is detected), the control unit 30 The user's operation is determined as “tap operation”.

(4)「長押し操作」とは、ユーザがタッチスクリーン2を押し続ける操作である。制御部30は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標(あるいは当該座標を含む一定領域内)において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。   (4) “Long press operation” is an operation in which the user continues to press the touch screen 2. After detecting the user's operation and determining the approaching operation, the control unit 30 determines that the time during which the approaching operation continues in the coordinates where the approaching operation is detected (or within a certain region including the coordinates) When it exceeds, it is determined that the user's operation is “long press operation” (“long press operation” may be referred to as “long touch operation”).

(5)「ドラッグ操作」とは、ユーザがタッチスクリーン2に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。   (5) “Drag operation” is an operation of sliding a finger while maintaining an approaching state in which the user brings the finger or the like closer to the touch screen 2.

キャラクタ操作検出部34は、タッチスクリーン2に対するユーザの入力操作に基づいて、ゲームに登場するプレイヤキャラクタ(以下、「自キャラクタ」と称することもある)に所定の動作を実行させる入力操作の操作内容を検出する。キャラクタ操作検出部34は、ユーザの入力操作に基づいて、例えば、プレイヤキャラクタを移動させる方向を検出する。すなわち、キャラクタ操作検出部34は、ユーザがプレイヤキャラクタの移動方向を指定する入力操作を受け付ける。   Based on the user's input operation on the touch screen 2, the character operation detection unit 34 causes the player character appearing in the game (hereinafter also referred to as “own character”) to perform a predetermined operation. Is detected. The character operation detection unit 34 detects, for example, the direction in which the player character is moved based on the user's input operation. That is, the character operation detection unit 34 receives an input operation in which the user specifies the moving direction of the player character.

具体的には、キャラクタ操作検出部34は、タッチスクリーン2からユーザの指が離れた状態から、ユーザが指をタッチスクリーン2に接近させて、入力操作受付部32がタッチセンシング部10にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン2の検出結果とに基づいて、プレイヤキャラクタの移動方向を検出する。キャラクタ操作検出部34での具体的な処理については、後述する。   Specifically, the character operation detection unit 34 causes the user to bring the finger close to the touch screen 2 from the state where the user's finger is separated from the touch screen 2, and the input operation reception unit 32 causes the touch sensing unit 10 to input the user's finger. When the user performs a drag operation using the coordinates at which the finger is approached as an initial touch position, the moving direction of the player character is detected based on the coordinates of the initial touch position and the detection result of the touch screen 2. . Specific processing in the character operation detection unit 34 will be described later.

オブジェクト制御部36は、ユーザ端末1がゲームプログラムを実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部32が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面)の生成、変形、移動などの処理を制御する。オブジェクト制御部36は、例えば、ユーザがプレイヤキャラクタを移動させるためのタッチスクリーン2に対する入力操作に基づいて、プレイヤキャラクタの移動方向を示す操作オブジェクト40を生成する。操作オブジェクト40の詳細については、後述する。   The object control unit 36 includes various objects that appear in a game that is progressed by the user terminal 1 executing a game program, and various objects that are generated based on user operation contents received by the input operation receiving unit 32 ( For example, processing such as generation, deformation, and movement of a GUI (Graphical User Interface) screen is controlled. The object control unit 36 generates an operation object 40 indicating the moving direction of the player character based on, for example, an input operation on the touch screen 2 for moving the player character by the user. Details of the operation object 40 will be described later.

表示制御部38は、キャラクタ操作検出部34およびオブジェクト制御部36での制御に応じて、ディスプレイ20の表示内容を決定し、決定した表示内容に従った画像、テキスト等の各種の情報をディスプレイ20に出力する。例えば、表示制御部38は、プレイヤキャラクタをディスプレイ20の一定領域に表示させた状態で、入力操作受付部32によって受け付けた入力操作に応じて操作オブジェクト40を表示させつつプレイヤキャラクタに所定の動作(例えば、移動やジャンプ動作)を行わせる画面表示を行う。   The display control unit 38 determines the display content of the display 20 according to control by the character operation detection unit 34 and the object control unit 36, and displays various information such as images and texts according to the determined display content. Output to. For example, the display control unit 38 displays the operation object 40 according to the input operation received by the input operation receiving unit 32 in a state where the player character is displayed in a certain area of the display 20, and performs a predetermined action ( For example, a screen display for moving or jumping is performed.

図4は、本実施形態に係るユーザ端末1のタッチスクリーン2に表示されるゲーム画面の一例を示す。図4の画面例は、ユーザが操作する自キャラクタ100(キャラクタオブジェクト、プレイヤキャラクタの一例)に、所定の動作を行わせるための入力操作を受け付ける画面である。制御部30は、タッチスクリーン2に、ユーザが操作するプレイヤキャラクタである自キャラクタ100と、対戦相手(敵)となるキャラクタである相手キャラクタ200とを表示させて、ユーザに対し、自キャラクタ100に所定の動作を行わせるための入力操作を受け付ける。自キャラクタ100および相手キャラクタ200は、ユーザ端末1を縦型となるように置いたときに、その上下方向においてタッチスクリーン2の中央付近(例えば、タッチスクリーン2をその上下方向に三分割したときの中央の領域内)に、例えば、左右方向において進行方向に視野がやや広くなるように表示される。タッチスクリーン2の下方には、例えば地面の断面(図4のドット模様の部分)が表示されている。タッチスクリーン2の下半部、すなわち地面の断面が表示された部分は、後述の操作オブジェクト40を操作するためのスペースとして利用可能である。ユーザは、タッチスクリーン2の任意位置への操作によって、自キャラクタ100を操作することができる。ユーザが、例えば、ディスプレイ20の左右方向に沿った方向(図4の矢印Aの方向)のドラッグ操作を入力した場合、制御部30は、そのドラッグ操作を受け付けて、自キャラクタ100をドラッグ操作の方向に対応する方向(例えば、矢印Bの方向)に移動させるよう制御する。   FIG. 4 shows an example of a game screen displayed on the touch screen 2 of the user terminal 1 according to the present embodiment. The screen example of FIG. 4 is a screen that accepts an input operation for causing the own character 100 (an example of a character object or a player character) operated by the user to perform a predetermined action. The control unit 30 causes the touch screen 2 to display the player character 100 that is a player character operated by the user and the opponent character 200 that is a character that becomes an opponent (enemy), and makes the user character 100 An input operation for performing a predetermined operation is accepted. When the user character 1 and the opponent character 200 are placed so that the user terminal 1 is in a vertical type, the vicinity of the center of the touch screen 2 in the vertical direction (for example, when the touch screen 2 is divided into three in the vertical direction) In the central area, for example, the field of view is displayed so as to be slightly wider in the direction of travel in the left-right direction. Below the touch screen 2, for example, a cross section of the ground (dot pattern portion in FIG. 4) is displayed. The lower half of the touch screen 2, that is, the portion where the cross section of the ground is displayed can be used as a space for operating the operation object 40 described later. The user can operate the player character 100 by operating the touch screen 2 to an arbitrary position. For example, when the user inputs a drag operation in the direction along the left-right direction of the display 20 (the direction of arrow A in FIG. 4), the control unit 30 accepts the drag operation and performs the drag operation on the player character 100. Control is performed so as to move in the direction corresponding to the direction (for example, the direction of arrow B).

<1.自キャラクタの動作制御>
図5は、キャラクタ操作検出部34が、ユーザの入力操作に応じて自キャラクタ100を移動させる方向を検出する処理を示す図である。キャラクタ操作検出部34は、ユーザがタッチスクリーン2を押していない状態から、指などをタッチセンシング部10に接近させてタッチスクリーン2を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部32は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン2がユーザの指などの接近を検出している座標とに基づいて、自キャラクタ100を移動させる方向を検出する。
<1. Action control of own character>
FIG. 5 is a diagram illustrating a process in which the character operation detection unit 34 detects a direction in which the player character 100 is moved in accordance with a user input operation. The character operation detection unit 34 sets, as a starting point, a position (initial touch position) where the user presses the touch screen 2 by bringing a finger or the like closer to the touch sensing unit 10 from a state where the user is not pressing the touch screen 2. When the input operation receiving unit 32 determines that the user's operation is a drag operation, the input operation receiving unit 32 determines the own character based on the coordinates of the starting point and the coordinates at which the touch screen 2 detects the approach of the user's finger or the like. The direction in which 100 is moved is detected.

図5の状態(A)は、タッチスクリーン2からユーザの指が離れた状態から、ユーザが指をタッチスクリーン2に接近させた状態を示す。入力操作受付部32は、ユーザの指がタッチスクリーン2に接近したことを検出し、検出した座標を初期タッチ位置としてメモリ(例えば、主記憶4または補助記憶5)に保持する。   A state (A) in FIG. 5 shows a state in which the user brings the finger closer to the touch screen 2 from a state in which the user's finger is separated from the touch screen 2. The input operation reception unit 32 detects that the user's finger has approached the touch screen 2, and holds the detected coordinates in the memory (for example, the main memory 4 or the auxiliary memory 5) as the initial touch position.

図5の例では、メモリが保持する初期タッチ位置の座標を、初期タッチ位置座標55として示す。入力操作受付部32は、タッチスクリーン2の検出結果(ユーザの指がタッチスクリーン2に接近している座標、および、ユーザの指がタッチスクリーン2に接近していることを検出していないこと(検出結果「null」))を、一定フレーム分、バッファメモリ53に格納する。バッファメモリ53は、タッチスクリーン2における検出結果を、各フレームについて一定フレーム分(図5の例では、メモリ領域fp〔0〕〜メモリ領域fp〔10〕までの11フレーム分)、格納することができる。バッファメモリ53は、例えばリングバッファとして実現することができる。   In the example of FIG. 5, the coordinates of the initial touch position held by the memory are shown as the initial touch position coordinates 55. The input operation reception unit 32 does not detect the detection result of the touch screen 2 (the coordinates at which the user's finger is close to the touch screen 2 and the proximity of the user's finger to the touch screen 2 ( The detection result “null”)) is stored in the buffer memory 53 for a certain number of frames. The buffer memory 53 can store the detection results on the touch screen 2 for each frame (in the example of FIG. 5, 11 frames from the memory area fp [0] to the memory area fp [10]). it can. The buffer memory 53 can be realized as a ring buffer, for example.

状態(A)の例では、ユーザがタッチスクリーン2を押した位置を、押下位置50A(タッチスクリーン2の座標(x0,y0))として示す。   In the example of the state (A), a position where the user presses the touch screen 2 is shown as a pressed position 50A (coordinates (x0, y0) of the touch screen 2).

図5の状態(B)は、ユーザがタッチスクリーン2に対してドラッグ操作を行って、タッチスクリーン2に対する押下位置を、押下位置50Aから押下位置50B(タッチスクリーン2の座標(x9,y9))まで10フレーム(メモリ領域fp〔0〕〜メモリ領域fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部32は、タッチスクリーン2の検出結果をバッファメモリ53に格納し、バッファメモリ53に保持される値を参照して、タッチスクリーン2に対するユーザの操作をドラッグ操作と判別する。   In the state (B) of FIG. 5, the user performs a drag operation on the touch screen 2, and the pressing position on the touch screen 2 is changed from the pressing position 50 </ b> A to the pressing position 50 </ b> B (coordinates (x9, y9) of the touch screen 2). This indicates that the frame has been moved by 10 frames (10 frames from the memory area fp [0] to the memory area fp [9]). The input operation reception unit 32 stores the detection result of the touch screen 2 in the buffer memory 53 and refers to the value held in the buffer memory 53 to determine that the user's operation on the touch screen 2 is a drag operation.

図5の状態(C)は、ユーザがタッチスクリーン2を押している位置を、押下位置50Bから押下位置50C(タッチスクリーン2の座標(x14,y14))まで、5フレーム(メモリ領域fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。   In the state (C) of FIG. 5, the position where the user is pressing the touch screen 2 is five frames (memory area fp [10]) from the pressing position 50B to the pressing position 50C (coordinates (x14, y14) of the touch screen 2). , Fp [0], fp [1], fp [2], and fp [3]).

図5の状態(D)は、キャラクタ操作検出部34が、状態(B)および状態(C)のそれぞれにおいて、ユーザが自キャラクタ100を移動させる方向を指定する入力操作の検出結果を示す。キャラクタ操作検出部34は、バッファメモリ53において、タッチスクリーン2が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリ53の書き込み位置)を管理している。   The state (D) of FIG. 5 shows the detection result of the input operation in which the character operation detection unit 34 designates the direction in which the user moves the player character 100 in each of the state (B) and the state (C). The character operation detection unit 34 manages information (writing position in the buffer memory 53) indicating which memory area is the target of writing the coordinates of the pressed position detected by the touch screen 2 in the buffer memory 53. .

状態(B)において、キャラクタ操作検出部34は、入力操作受付部32の判別結果に基づいて、初期タッチ位置を示す座標51A(座標(x0,y0))から座標51B(座標(x9,y9))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部34は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Bとによって規定されるベクトル52B((y9−y0)/(x9−x0))を、自キャラクタ100を移動させる方向として検出する。   In the state (B), the character operation detecting unit 34, based on the determination result of the input operation receiving unit 32, from the coordinate 51A (coordinate (x0, y0)) indicating the initial touch position to the coordinate 51B (coordinate (x9, y9)). ) Until the user performs a drag operation. The character operation detection unit 34 moves the own character 100 with a vector 52B ((y9−y0) / (x9−x0)) defined by the coordinates 51A and 51B, starting from the coordinates 51A of the initial touch position. Detect as direction.

状態(C)において、キャラクタ操作検出部34は、入力操作受付部32の判別結果に基づいて、座標51B(座標(x9,y9))から座標51C(座標(x14,y14))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部34は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Cとによって規定されるベクトル52C((y14−y0)/(x14−x0))を、自キャラクタ100を移動させる方向として検出する。   In the state (C), the character operation detection unit 34 drags the user from the coordinate 51B (coordinate (x9, y9)) to the coordinate 51C (coordinate (x14, y14)) based on the determination result of the input operation receiving unit 32. Detects that an operation has been performed. The character operation detection unit 34 moves the own character 100 with a vector 52C ((y14−y0) / (x14−x0)) defined by the coordinates 51A and the coordinates 51C, starting from the coordinates 51A of the initial touch position. Detect as direction.

<2.自キャラクタの動作例>
図6に、自キャラクタ100の動作テーブル60(アクション例)を示す。動作テーブル60は、例えば、制御部30(表示制御部38)に記憶されている。図6に示すように、動作テーブル60には、ユーザの入力操作と、入力操作時の自キャラクタ100の状態とに基づいて自キャラクタ100に実行させる所定のアクションが設定されている。動作テーブル60に例示された例1〜8について、以下に詳述する。
<2. Action example of own character>
FIG. 6 shows an action table 60 (action example) of the player character 100. The operation table 60 is stored in, for example, the control unit 30 (display control unit 38). As shown in FIG. 6, the action table 60 is set with predetermined actions to be executed by the player character 100 based on the user's input operation and the state of the player character 100 at the time of the input operation. Examples 1 to 8 illustrated in the operation table 60 will be described in detail below.

例1:ユーザがタップ操作した場合には、自キャラクタ100がどのような状態であっても(すなわち、地面に着地していても着地していなくても)、制御部30は、自キャラクタ100に攻撃動作(例えば、持っている剣を振る)を実行させる。
例2:ユーザが横スライド操作(ここで、タッチスクリーン2の左右方向(水平方向)に沿った向きを0度とし、水平方向よりも上側を正とし、下側を負とした場合に、例えば、−45度から+30度の範囲内のドラッグ操作を、横スライド操作と称する。)を行い、かつ、自キャラクタ100が地面に着地している場合には、制御部30は、自キャラクタ100をドラッグ操作の方向に移動させる。なお、ドラッグ操作の開始点と終了点の距離(スライド量)が所定の閾値以下の場合は、自キャラクタ100を歩かせるようにし、スライド量が所定の閾値よりも大きい場合には、自キャラクタ100を走らせるようにしてもよい。
例3:ユーザが上スライド操作(例えば、+60度から+120度の範囲内のドラッグ操作を、上スライド操作と称する。)を行い、かつ、自キャラクタ100が地面に着地している場合には、制御部30は、自キャラクタ100にジャンプ動作を実行させる。
例4:ユーザが例3と同様の上スライド操作を行い、かつ、自キャラクタ100が地面に着地していない場合には、制御部30は、自キャラクタ100が地面に着地した後にジャンプ動作を実行させる。すなわち、この場合は、自キャラクタ100のジャンプ動作が繰り返される。
例5:ユーザが下スライド操作(例えば、−45度から−135度の範囲内のドラッグ操作を、下スライド操作と称する。)を行い、かつ、自キャラクタ100が地面に着地している場合には、制御部30は、自キャラクタ100をしゃがみ込ませる。
例6:ユーザが例5と同様の下スライド操作を行い、かつ、自キャラクタ100が地面に着地していない場合には、制御部30は、自キャラクタ100に下方攻撃動作(いわゆる、兜割り)を実行させる。
例7:ユーザが斜め上スライド操作(例えば、+30度から+60度の範囲内のドラッグ操作を、斜め上スライド操作と称する。)を行い、かつ、自キャラクタ100が地面に着地している場合には、制御部30は、自キャラクタ100を斜めにジャンプさせ、着地後に地面上を移動させる。
例8:ユーザが例7と同様の斜め上スライド操作を行い、かつ、自キャラクタ100が壁などの障害物に接している場合には、制御部30は、自キャラクタ100に壁を蹴って上方へジャンプする動作(いわゆる、三角飛び)を実行させる。
Example 1: When the user performs a tap operation, regardless of the state of the player character 100 (that is, whether the player character has landed or not landed), the control unit 30 determines the player character 100. To perform an attack action (for example, swing a sword you have).
Example 2: When the user performs a horizontal slide operation (where the direction along the left-right direction (horizontal direction) of the touch screen 2 is 0 degree, the upper side from the horizontal direction is positive, and the lower side is negative, for example, , A drag operation within a range of −45 degrees to +30 degrees is referred to as a horizontal slide operation), and when the player character 100 has landed on the ground, the control unit 30 causes the player character 100 to move. Move in the direction of the drag operation. If the distance (slide amount) between the start point and end point of the drag operation is equal to or smaller than a predetermined threshold, the player character 100 is allowed to walk. If the slide amount is greater than the predetermined threshold, the player character 100 is allowed to walk. You may make it run.
Example 3: When the user performs an up-slide operation (for example, a drag operation within the range of +60 degrees to +120 degrees is referred to as an up-slide operation) and the player character 100 is landing on the ground. The control unit 30 causes the own character 100 to execute a jump action.
Example 4: When the user performs an up-slide operation as in Example 3 and the player character 100 does not land on the ground, the control unit 30 performs a jump action after the player character 100 has landed on the ground. Let That is, in this case, the jump action of the player character 100 is repeated.
Example 5: When the user performs a downward slide operation (for example, a drag operation within a range of −45 degrees to −135 degrees is referred to as a downward slide operation) and the player character 100 is landed on the ground. The control unit 30 crouches the player character 100.
Example 6: When the user performs the same downward sliding operation as in Example 5 and the own character 100 is not landing on the ground, the control unit 30 performs a downward attack action (so-called splitting) on the own character 100. Is executed.
Example 7: When the user performs an oblique upper slide operation (for example, a drag operation within the range of +30 degrees to +60 degrees is referred to as an oblique upward slide operation) and the player character 100 is landed on the ground. The control unit 30 causes the player character 100 to jump diagonally and move on the ground after landing.
Example 8: When the user performs an upward sliding operation similar to that in Example 7 and the player character 100 is in contact with an obstacle such as a wall, the control unit 30 kicks the wall against the player character 100 and moves upward. The operation to jump to (so-called triangle jump) is executed.

制御部30は、例えば、ユーザの上スライド操作(第一の入力操作の一例)を受け付けると、動作テーブル60を参照して自キャラクタ100をジャンプさせた状態(第一の状態の一例)とし、ジャンプさせた状態においてユーザの下スライド操作(第二の入力操作の一例)を受け付けると、動作テーブル60を参照して自キャラクタ100に兜割りを実行させる。また、斜めスライド操作を受け付けた場合には、制御部30は、斜め上スライド操作に基づいて動作テーブル60を参照して自キャラクタ100をジャンプ状態(第一の状態)とした後に地面上を移動させる状態(第二の状態の一例)とする。そして、制御部30は、自キャラクタ100をジャンプさせた状態または地面を移動させた状態において所定の入力操作(例えば、下スライド動作)を受け付けると、動作テーブル60を参照して自キャラクタ100に所定の動作(ジャンプ状態の場合には兜割り、移動状態の場合にはしゃがみ込み)を実行させる。   For example, when the control unit 30 receives a user's up-slide operation (an example of a first input operation), the control unit 30 refers to the action table 60 to make the player character 100 jump (an example of the first state), When the user's downward slide operation (an example of a second input operation) is accepted in the jumped state, the player character 100 is caused to perform the splitting with reference to the motion table 60. When an oblique slide operation is received, the control unit 30 moves on the ground after referring to the action table 60 based on the oblique upward slide operation and setting the player character 100 in a jump state (first state). The state to be made (an example of the second state). When the control unit 30 receives a predetermined input operation (for example, a downward slide motion) in a state in which the player character 100 is jumped or in a state in which the ground is moved, the controller 30 refers to the motion table 60 to determine the player character 100 in advance. (Splitting in the jump state, crouching in the moving state) is executed.

<3.操作オブジェクトの基本構成>
本実施形態に係る操作オブジェクト40(図4参照)は、ユーザのタッチスクリーン2に対する接近操作が検知されるとタッチスクリーン2に表示される。操作オブジェクト40は、ユーザが自キャラクタ100を移動させる方向を示す弾性状のオブジェクトである。操作オブジェクト40は、図7の(A)に示すように、指接触時の初期形状として、タッチスクリーン2に接触した位置(例えば、図5の初期タッチ位置座標51A)である接触開始点に関連付けられた基準位置の周囲に、円形状の基部42を有するように形成される。なお、基準位置は、最初に指がタッチスクリーン2に触れた座標でなくても良く、例えば、最初に指が触れたフレームの数フレーム後のフレームにおいて指が触れていた座標であっても良い。
<3. Basic configuration of operation object>
The operation object 40 (see FIG. 4) according to the present embodiment is displayed on the touch screen 2 when a user's approach operation to the touch screen 2 is detected. The operation object 40 is an elastic object that indicates a direction in which the user moves the player character 100. As shown in FIG. 7A, the operation object 40 is associated with a contact start point that is a position (for example, initial touch position coordinates 51A in FIG. 5) in contact with the touch screen 2 as an initial shape at the time of finger contact. A circular base 42 is formed around the reference position. Note that the reference position does not have to be the coordinates at which the finger first touches the touch screen 2, and may be, for example, the coordinates at which the finger touched in a frame several frames after the first touched frame. .

ユーザがタッチスクリーン2上で接触開始点から接触終了点(ここで、接触終了点とは、ユーザの指などがタッチスクリーン2に接触した状態での最終地点を意味する)までドラッグ操作を行うと、図7の(B)に示すように操作オブジェクト40は、ユーザの指に引っ張られるような弾性変形を伴う。このとき、操作オブジェクト40は、ドラッグ操作の接触開始点に対応して表示される基部(拡大部)42に加えて、ドラッグ操作の接触終了点(注:指はタッチスクリーン2に接触したままの状態である。)付近に位置する先端部44と、基部42と先端部44との間を接続する接続部46とを含むように構成される。このように操作オブジェクト40は、接触開始点から接触終了点に向けて入力されたドラッグ操作の方向に弾性的に延ばされるように形成される。また、ユーザが接触終了点を接触状態に維持しつつタッチスクリーン2上において更に指などを移動させた場合、先端部44もそれに追従して更に移動し操作オブジェクト40の延びる向きも変化する。ユーザによるドラッグ操作が終了した際に(すなわち、タッチスクリーン2上において接触終了点からユーザの指が離れた際に)、弾性変形した操作オブジェクト40が、その復元力に従って、接触開始点に向けて段階的に萎縮して、図7の(A)に示した初期形状に復元するように表示され、一定時間経過後に非表示となる。   When the user performs a drag operation from the contact start point on the touch screen 2 to the contact end point (here, the contact end point means the final point when the user's finger or the like is in contact with the touch screen 2). As shown in FIG. 7B, the operation object 40 is accompanied by elastic deformation such that it is pulled by the user's finger. At this time, in addition to the base part (enlarged part) 42 displayed corresponding to the contact start point of the drag operation, the operation object 40 has a contact end point of the drag operation (Note: the finger remains in contact with the touch screen 2). It is configured to include a distal end portion 44 located in the vicinity and a connection portion 46 that connects between the base portion 42 and the distal end portion 44. Thus, the operation object 40 is formed so as to be elastically extended in the direction of the drag operation input from the contact start point toward the contact end point. Further, when the user moves a finger or the like on the touch screen 2 while maintaining the contact end point in the contact state, the tip end portion 44 further moves following the movement and the extending direction of the operation object 40 also changes. When the user's drag operation is completed (that is, when the user's finger is released from the contact end point on the touch screen 2), the elastically deformed operation object 40 is directed toward the contact start point according to its restoring force. It is shrunk step by step and displayed so as to restore the initial shape shown in FIG. 7A, and disappears after a certain period of time.

なお、図7の(A)では、接触開始点を中心に円形状の基部42を形成しているが、必ずしもこれに限定されない。例えば、基部42を接触開始点から一定距離だけ上部または下部にずらして形成しても良い。すなわち、操作オブジェクト40の基部42は、接触開始点に関連付けられた所定の位置(基準位置)に対応して表示されていても良い。また、接触開始点に形成した操作オブジェクト40(基部42)をドラッグ操作に応じて変形させずに、接触開始点から接触終了点に向けて、操作オブジェクトの一部を構成する別のオブジェクトを表示させるようにしても良い。   In FIG. 7A, the circular base 42 is formed around the contact start point, but the present invention is not necessarily limited thereto. For example, the base 42 may be formed to be shifted upward or downward by a certain distance from the contact start point. That is, the base 42 of the operation object 40 may be displayed corresponding to a predetermined position (reference position) associated with the contact start point. Further, another object constituting a part of the operation object is displayed from the contact start point toward the contact end point without deforming the operation object 40 (base 42) formed at the contact start point in accordance with the drag operation. You may make it let it.

<4.主要な機能モジュールの説明>
図8〜図10を参照して、本実施形態に係るゲームプログラムで実装される主要な機能モジュールとその動作処理について説明する。当該機能モジュールを通じて、操作信号としての入力を処理して、表示信号としての出力を生成することになる。
図8に示す操作オブジェクト制御プログラムモジュール(操作オブジェクト制御PM)80は、タッチスクリーン2(タッチセンシング部10)を通じたユーザの入力操作に基づいて操作オブジェクト40を制御するためのモジュールである。キャラクタ制御プログラムモジュール(キャラクタ制御PM)90は、タッチスクリーン2を通じたユーザの入力操作に応じて仮想空間内の自キャラクタ100の動作を制御して自キャラクタ100を操作するためのモジュールである。操作オブジェクト制御PM80は、入力操作受付プログラムモジュール(入力操作受付PM)82と、操作オブジェクト描画プログラムモジュール(操作オブジェクト描画PM)84とを含む。入力操作受付PM82は、図3に示す入力操作受付部32としての機能を有し、操作オブジェクト描画PM84は、オブジェクト制御部36および表示制御部38としての機能を有する。キャラクタ制御PM90は、キャラクタ操作検出部34としての機能を有する。
<4. Description of major functional modules>
With reference to FIG. 8 to FIG. 10, main functional modules implemented in the game program according to the present embodiment and their operation processing will be described. Through the function module, an input as an operation signal is processed to generate an output as a display signal.
An operation object control program module (operation object control PM) 80 shown in FIG. 8 is a module for controlling the operation object 40 based on a user input operation through the touch screen 2 (touch sensing unit 10). The character control program module (character control PM) 90 is a module for operating the own character 100 by controlling the action of the own character 100 in the virtual space in accordance with a user input operation through the touch screen 2. The operation object control PM 80 includes an input operation reception program module (input operation reception PM) 82 and an operation object drawing program module (operation object drawing PM) 84. The input operation reception PM 82 has a function as the input operation reception unit 32 shown in FIG. 3, and the operation object drawing PM 84 has a function as the object control unit 36 and the display control unit 38. The character control PM 90 has a function as the character operation detection unit 34.

タッチスクリーン2上でユーザの指などによる入力操作(例えば、接近操作)が実行されると、入力操作受付PM82は、入力操作を受け付け、受け付けた入力操作に関する情報(入力操作情報)をキャッシュメモリ(例えば、図5のバッファメモリ53)に格納する(図9のステップS1)。次に、キャラクタ制御PM90は、入力操作受付PM82から入力操作情報を取得する(ステップS2)。そして、キャラクタ制御PM90は、ゲーム内状況に基づいて、例えば、自キャラクタ100の状態(地面に着地しているか否か、壁などの障害物に接しているか否か、など)に関する情報を取得する(ステップS3)。なお、ここでの「自キャラクタ100の状態」とは、キャラクタの動作に関連する状態(例えば、着地状態か否か)を示し、キャラクタのステータスの異常状態(例えば、毒や石化)などは含まない。   When an input operation (for example, an approach operation) with a user's finger or the like is executed on the touch screen 2, the input operation reception PM 82 receives the input operation and stores information (input operation information) regarding the received input operation in a cache memory ( For example, it is stored in the buffer memory 53) of FIG. 5 (step S1 of FIG. 9). Next, the character control PM 90 acquires input operation information from the input operation reception PM 82 (step S2). And character control PM90 acquires the information regarding the state (whether it is landing on the ground, whether it touches an obstacle, such as a wall) based on the situation in a game, for example. (Step S3). Here, “the state of the player character 100” indicates a state related to the character's motion (for example, whether it is a landing state), and includes an abnormal state of the character's status (for example, poisoning or petrification). Absent.

次いで、キャラクタ制御PM90は、ステップS2で取得した入力操作情報とステップS3で取得した自キャラクタ100の状態に関する情報(以下、キャラクタ状態情報と称する)に基づいて、図6の動作テーブル60を参照して自キャラクタ100を制御する(ステップS4)。例えば、ユーザが横スライド操作を行い、かつ、自キャラクタ100が地面に着地している場合には、キャラクタ制御PM90は、横スライド操作情報、および自キャラクタ100が地面に着地状態であるという情報を取得し、これらの情報から動作テーブル60の例2に基づいて、図10の(A)に示すように自キャラクタ100をドラッグ操作の方向(矢印Cの方向)に移動させる。なお、キャラクタ制御PM90は、自キャラクタ100の制御結果に基づいて、相手キャラクタ200を制御することもできる。例えば、キャラクタ制御PM90は、自キャラクタ100が相手キャラクタ200を攻撃した場合、その攻撃を受けたことを表すアクションを相手キャラクタ200に行わせることができる。   Next, the character control PM 90 refers to the action table 60 of FIG. 6 based on the input operation information acquired in step S2 and the information regarding the state of the player character 100 acquired in step S3 (hereinafter referred to as character state information). Then, the player character 100 is controlled (step S4). For example, when the user performs a side slide operation and the player character 100 is landed on the ground, the character control PM 90 displays side slide operation information and information that the player character 100 is in the ground state. Based on Example 2 of the action table 60 from the acquired information, the player character 100 is moved in the direction of the drag operation (the direction of the arrow C) as shown in FIG. The character control PM 90 can also control the opponent character 200 based on the control result of the own character 100. For example, when the own character 100 attacks the opponent character 200, the character control PM 90 can cause the opponent character 200 to perform an action indicating that the attack has been received.

次に、操作オブジェクト制御PM80内の操作オブジェクト描画PM84は、入力操作受付PM82から入力操作情報を取得するとともに、キャラクタ制御PM90からキャラクタ状態情報を取得する(ステップS5)。そして、操作オブジェクト描画PM84は、ステップS5で取得した入力操作情報およびキャラクタ状態情報に基づいて、操作オブジェクト40を描画し、タッチスクリーン2に表示する(ステップS6)。例えば、図6の例2のように横スライド操作が行われた場合には、操作オブジェクト描画PM84は、入力操作受付PM82から横スライド操作情報を取得し、図10の(A)に示すように、初期タッチ位置座標(接触開始点)から現在のタッチ位置座標(接触終了点)に向けて、すなわち矢印C´方向に操作オブジェクト40を引き延ばすように表示する。それと同時に、操作オブジェクト描画PM84は、キャラクタ制御PM90から取得したキャラクタ状態情報に基づいて、図10の(A)に示すように、操作オブジェクト40の基部42の内側に自キャラクタ100の状態に対応した情報(例えば、文字情報)を表示する。例えば、自キャラクタ100が地面に着地した状態でユーザが矢印Cの方向に横スライド操作を実行した場合には、操作オブジェクト40の基部42内には「Run」と表示される(図10の(A)参照)。なお、横スライド操作のスライド量が所定値以下の場合は、基部42内に「Run」の代わりに「Walk」と表示しても良い。また、自キャラクタ100が地面に着地した状態でユーザが上スライド操作あるいは斜め上スライド操作を実行した場合には、図10の(B)に示すように、自キャラクタ100がドラッグ操作の方向である矢印D方向に応じてジャンプするとともに、操作オブジェクト40が矢印D´方向に引き伸ばされ、操作オブジェクト40の基部42内に「Jump」と表示される。ステップS6の処理が完了すると、ステップS1へ戻り、処理を繰り返す。   Next, the operation object drawing PM 84 in the operation object control PM 80 acquires the input operation information from the input operation reception PM 82 and acquires the character state information from the character control PM 90 (step S5). Then, the operation object drawing PM 84 draws the operation object 40 on the touch screen 2 based on the input operation information and the character state information acquired in step S5 (step S6). For example, when a side slide operation is performed as in Example 2 of FIG. 6, the operation object drawing PM 84 acquires side slide operation information from the input operation reception PM 82, and as shown in FIG. The operation object 40 is displayed so as to extend from the initial touch position coordinate (contact start point) toward the current touch position coordinate (contact end point), that is, in the direction of the arrow C ′. At the same time, based on the character state information acquired from the character control PM 90, the operation object drawing PM 84 corresponds to the state of the player character 100 inside the base portion 42 of the operation object 40, as shown in FIG. Information (for example, character information) is displayed. For example, when the user performs a horizontal slide operation in the direction of arrow C while the player character 100 has landed on the ground, “Run” is displayed in the base 42 of the operation object 40 ((FIG. 10 ( A)). When the slide amount of the lateral slide operation is equal to or less than a predetermined value, “Walk” may be displayed in the base portion 42 instead of “Run”. Further, when the user performs an up slide operation or an oblique up slide operation while the player character 100 has landed on the ground, the player character 100 is in the direction of the drag operation, as shown in FIG. While jumping according to the arrow D direction, the operation object 40 is stretched in the arrow D ′ direction, and “Jump” is displayed in the base 42 of the operation object 40. When the process of step S6 is completed, the process returns to step S1 and the process is repeated.

タッチスクリーン2上において、基部42内に表示される文字情報(「Run」や「Jump」)の表示角度は固定されていることが好ましい。すなわち、図10の(A),(B)に示すように、操作オブジェクト40の基部42に対する先端部44の角度に関わらず、文字情報が横書きである場合には、文字情報はタッチスクリーン2の下辺と略平行となる向きで表示される。例えば、接触開始点から下向き側にドラッグ操作が入力された場合や、接触開始点を中心にして接触終了点が回転するような入力操作が入力された場合にも、タッチスクリーン2上における文字情報の表示角度はユーザが見易い向きで表示されるため、良好な視認性を確保することができる。   On the touch screen 2, it is preferable that the display angle of the character information (“Run” or “Jump”) displayed in the base 42 is fixed. That is, as shown in FIGS. 10A and 10B, when the character information is written horizontally, regardless of the angle of the distal end portion 44 with respect to the base portion 42 of the operation object 40, the character information is displayed on the touch screen 2. Displayed in an orientation that is substantially parallel to the bottom side. For example, when a drag operation is input downward from the contact start point, or when an input operation is performed such that the contact end point is rotated around the contact start point, the character information on the touch screen 2 is also displayed. Since the display angle is displayed in a direction that the user can easily see, good visibility can be ensured.

図11は、ユーザが自キャラクタ100に兜割りのアクションを実行させようとする場合のゲーム画面例であり、(A)は自キャラクタ100がジャンプしている状態の画面例を示し、(B)は、兜割りの入力操作が成功した場合の画面例を示し、(C)は兜割りの入力操作が失敗した場合の画面例を示している。
兜割り(下方攻撃)は、図6の動作テーブル60の例5に示すように、自キャラクタ100が地面に着地していない状態(図11の(A)に示す状態)において下スライド操作がなされた時に実行可能となる。すなわち、制御部30は、ユーザの上スライド操作あるいは斜め上スライド操作に基づいて自キャラクタ100を地面に着地していないジャンプ状態とし、このジャンプ状態においてユーザの下スライド操作の入力を受け付けた場合に、自キャラクタ100に兜割りを実行させる。
FIG. 11 is an example of a game screen when the user tries to cause the player character 100 to execute a split action. FIG. 11A shows an example of a screen in which the player character 100 is jumping. Shows an example of a screen when the split input operation is successful, and (C) shows an example of a screen when the split input operation fails.
In the splitting (downward attack), as shown in Example 5 of the action table 60 in FIG. 6, the downward slide operation is performed in a state where the player character 100 is not landing on the ground (the state shown in FIG. 11A). It becomes executable when That is, when the control unit 30 enters a jump state in which the player character 100 does not land on the ground based on the user's up-slide operation or diagonally-upper slide operation, and receives an input of the user's down-slide operation in this jump state Then, the player character 100 is caused to perform splitting.

兜割りの入力操作が成功した場合、すなわちジャンプ状態において下スライド操作が入力された場合には、図11の(B)に示すように、制御部30は、自キャラクタ100に兜割りを実行させるとともに、操作オブジェクト40の基部42内に兜割りに関する情報(例えば、「Attack」)を表示する。一方、兜割りの入力操作が失敗した場合、例えばドラッグ操作の下方向への角度が足りなかった場合には、図11の(C)に示すように、制御部30は、自キャラクタ100に兜割りを実行させず、また、操作オブジェクト40の基部42内にはその時点での自キャラクタ100の状態に関する情報(例えば、「Jump」)を表示する。この場合、ユーザは、表示「Jump」を見ることで、ドラッグ操作の下方向への角度が足りなかったことを容易に認識することができる。このように、基部42内に文字情報を表示することで、兜割りのような複数の入力操作が必要な動作についても当該入力操作の成否をユーザに対して分かりやすくフィードバックすることができる。   When the input operation for the wood split is successful, that is, when the downward slide operation is input in the jump state, the control unit 30 causes the player character 100 to perform the wood split as shown in FIG. At the same time, information about the wood split (for example, “Attach”) is displayed in the base 42 of the operation object 40. On the other hand, when the input operation for splitting fails, for example, when the downward angle of the drag operation is insufficient, the control unit 30 touches the player character 100 as shown in FIG. No splitting is performed, and information about the state of the player character 100 at that time (for example, “Jump”) is displayed in the base 42 of the operation object 40. In this case, the user can easily recognize that the downward angle of the drag operation is insufficient by looking at the display “Jump”. Thus, by displaying the character information in the base portion 42, the success or failure of the input operation can be fed back to the user in an easy-to-understand manner even for an operation that requires a plurality of input operations such as chopping.

図12は、図11と同様に、ユーザが自キャラクタ100に兜割りのアクションを実行させようとする場合のゲーム画面例であり、(A)は自キャラクタ100がジャンプしている状態の画面例を示し、(B)は、兜割りの入力操作が成功した場合の画面例を示し、(C)は兜割りの入力操作が失敗した場合の画面例を示している。
図11の場合と同様に、兜割りの入力操作が成功した場合には、図12の(B)に示すように、制御部30は、自キャラクタ100に兜割りを実行させるとともに、操作オブジェクト40の基部42内に兜割りに関する情報(例えば、「Attack」)を表示する。一方、兜割りの入力操作が失敗した場合、例えば上スライド操作や斜め上スライド操作に基づいてジャンプした自キャラクタ100が地面に着地してから下スライド操作が入力された場合には、図12の(C)に示すように、制御部30は、自キャラクタ100に兜割りを実行させず、また、基部42内にはその時点での自キャラクタ100の状態に関する情報(例えば、「Run」)を表示する。この場合、ユーザは、表示「Run」を見ることで、自キャラクタ100が地面に着地してから下スライド操作を行ったために入力操作に失敗したことを容易に認識することができる。
FIG. 12 is an example of a game screen when the user wants the player character 100 to execute a chopping action, as in FIG. 11, and (A) is an example of a screen in a state where the player character 100 is jumping. (B) shows an example of a screen when the splitting operation is successful, and (C) shows an example of a screen when the splitting operation is unsuccessful.
As in the case of FIG. 11, when the split operation is successful, as shown in FIG. 12B, the control unit 30 causes the own character 100 to execute the split operation and also operates the operation object 40. In the base portion 42, information on the wood split (for example, “Attach”) is displayed. On the other hand, when the input operation for splitting is unsuccessful, for example, when the player character 100 that has jumped based on the upper slide operation or the oblique upper slide operation has landed on the ground and the lower slide operation is input, FIG. As shown in (C), the control unit 30 does not cause the player character 100 to perform splitting, and information (for example, “Run”) regarding the state of the player character 100 at that time is stored in the base unit 42. indicate. In this case, by viewing the display “Run”, the user can easily recognize that the input operation has failed because the player character 100 has performed the downward slide operation after landing on the ground.

以上説明したように、本実施形態によれば、制御部30は、ユーザの入力操作に基づいて、接触開始点から接触終了点に向けてタッチスクリーン2上に操作オブジェクト40を表示させつつ、自キャラクタ100に所定の動作を実行させる。そして、制御部30は、自キャラクタ100の状態を検出し、検出された自キャラクタ100の状態に関連付けられた所定の情報(例えば、上記説明した文字情報)を、タッチスクリーン2上の操作オブジェクト40の基部42内に表示させる。これにより、入力操作に対するフィードバックをユーザへ直感的に与えることが可能となる。   As described above, according to the present embodiment, the control unit 30 automatically displays the operation object 40 on the touch screen 2 from the contact start point to the contact end point based on the user's input operation. The character 100 is caused to execute a predetermined action. Then, the control unit 30 detects the state of the own character 100, and sends predetermined information (for example, the character information described above) associated with the detected state of the own character 100 to the operation object 40 on the touch screen 2. Are displayed in the base 42. This makes it possible to intuitively give feedback to the user regarding the input operation.

自キャラクタ100の状態に関連付けられた文字情報は、操作オブジェクト40の拡大部である基部42内に表示されている。このように、タッチスクリーン2上のデッドスペースである操作オブジェクト40の拡大部に文字情報を表示させることで、スマートフォンのような狭い画面を有効利用することができる。   Character information associated with the state of the player character 100 is displayed in a base 42 that is an enlarged portion of the operation object 40. Thus, by displaying character information on the enlarged portion of the operation object 40 that is a dead space on the touch screen 2, a narrow screen such as a smartphone can be effectively used.

上記の実施形態においては、図10〜12に示すように、操作オブジェクト40の拡大部である基部42の内側に自キャラクタ100の状態に関する文字情報を表示しているが、これに限定されない。図13に示すように、操作オブジェクト40から吹き出し48のような形で、自キャラクタ100の状態に関する情報(例えば、「Run」)を表示するようにしても良い。すなわち、自キャラクタ100に関する情報は操作オブジェクト40に付随するように表示されていれば良い。   In the above embodiment, as shown in FIGS. 10 to 12, the character information related to the state of the player character 100 is displayed inside the base portion 42 that is an enlarged portion of the operation object 40, but the present invention is not limited to this. As shown in FIG. 13, information about the state of the player character 100 (for example, “Run”) may be displayed in the form of a balloon 48 from the operation object 40. That is, the information regarding the player character 100 may be displayed so as to accompany the operation object 40.

また、上記の実施形態においては、図7等に示すように、基部42を先端部44よりも大きくするように操作オブジェクト40を形成しているが、これに限定されない。図14の操作オブジェクト140に示すように、先端部144を基部142よりも大きく形成してもよい。この場合、自キャラクタ100の状態に関する情報(例えば、「Run」)は、拡大部である先端部144内に表示される。   In the above embodiment, as shown in FIG. 7 and the like, the operation object 40 is formed so that the base 42 is larger than the tip 44, but the present invention is not limited to this. As shown in the operation object 140 in FIG. 14, the distal end portion 144 may be formed larger than the base portion 142. In this case, information about the state of the player character 100 (for example, “Run”) is displayed in the distal end portion 144 that is an enlarged portion.

また、操作オブジェクト40に付随して表示されるキャラクタ状態情報は、文字情報に限られず、図形等のその他の記号であっても良い。   In addition, the character state information displayed accompanying the operation object 40 is not limited to character information, and may be other symbols such as graphics.

上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The above embodiments are merely examples for facilitating the understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

1:ユーザ端末、2:タッチスクリーン、3:CPU、4:主記憶、5:補助記憶、6:送受信部、7:表示部、8:入力部、10:タッチセンシング部、20:表示部、30:制御部、32:入力操作受付部、34:キャラクタ操作検出部、36:オブジェクト制御部、38:表示制御部、40:操作オブジェクト、42:基部、44:先端部、46:接続部、53:バッファメモリ、55:初期タッチ位置座標、60:動作テーブル、80:操作オブジェクト制御プログラムモジュール、82:入力操作受付プログラムモジュール、84:操作オブジェクト描画プログラムモジュール、90:キャラクタ制御プログラムモジュール、100:自キャラクタ(プレイヤキャラクタ、キャラクタオブジェクトの一例)、200:相手キャラクタ   1: user terminal, 2: touch screen, 3: CPU, 4: main memory, 5: auxiliary memory, 6: transmission / reception unit, 7: display unit, 8: input unit, 10: touch sensing unit, 20: display unit, 30: Control unit, 32: Input operation reception unit, 34: Character operation detection unit, 36: Object control unit, 38: Display control unit, 40: Operation object, 42: Base unit, 44: Tip unit, 46: Connection unit, 53: buffer memory, 55: initial touch position coordinates, 60: motion table, 80: operation object control program module, 82: input operation reception program module, 84: operation object drawing program module, 90: character control program module, 100: Own character (example of player character, character object), 200: opponent character

Claims (6)

ユーザの入力操作に従って、タッチスクリーンに表示されるキャラクタオブジェクトを制御するゲーム方法であって、
(a)前記入力操作の開始点から前記入力操作の終了点に向けて、前記タッチスクリーン上に操作オブジェクトを表示させるステップと、
(b)前記入力操作に基づいて、前記キャラクタオブジェクトに所定の動作を実行させるステップと、
(c)前記ステップ(b)における前記キャラクタオブジェクトの状態を検出するステップと、
(d)検出された前記キャラクタオブジェクトの前記状態に関連付けられた所定の情報を、前記操作オブジェクトに付随して前記タッチスクリーン上に表示させるステップと、を含む、ゲーム方法。
A game method for controlling a character object displayed on a touch screen in accordance with a user input operation,
(A) displaying an operation object on the touch screen from a start point of the input operation toward an end point of the input operation;
(B) causing the character object to perform a predetermined action based on the input operation;
(C) detecting the state of the character object in the step (b);
(D) displaying a predetermined information associated with the detected state of the character object on the touch screen in association with the operation object.
前記操作オブジェクトは、前記開始点と前記終了点との間に表示されるオブジェクトであり、
前記ステップ(a)において、前記操作オブジェクトは、前記基準点側の部分および前記終了点側の部分のいずれか一方が、他方の部分よりも大きい拡大部となるように表示され、
前記ステップ(d)において、前記所定の情報は、前記拡大部の内側に表示される、請求項1に記載の方法。
The operation object is an object displayed between the start point and the end point,
In the step (a), the operation object is displayed such that one of the reference point side portion and the end point side portion is an enlarged portion larger than the other portion,
The method according to claim 1, wherein in the step (d), the predetermined information is displayed inside the enlarged portion.
前記ステップ(d)において、前記開始点と前記終了点との位置関係に関わらず、前記タッチスクリーン上における前記所定の情報の表示角度は固定されている、請求項1または2に記載の方法。   The method according to claim 1 or 2, wherein in the step (d), a display angle of the predetermined information on the touch screen is fixed regardless of a positional relationship between the start point and the end point. 前記ステップ(b)において、第一の入力操作に基づいて前記キャラクタオブジェクトを第一の状態とし、前記第一の状態において第二の入力操作に基づいて前記所定の動作が実行される、請求項1から3のいずれか一項に記載の方法。   The step (b) sets the character object in a first state based on a first input operation, and the predetermined action is executed based on a second input operation in the first state. The method according to any one of 1 to 3. 前記ステップ(b)において、第一の入力操作に基づいて前記キャラクタオブジェクトを第一の状態とした後に第二の状態とし、前記第一の状態または前記第二の状態において第二の入力操作に基づいて前記所定の動作が実行される、請求項1から3のいずれか一項に記載の方法。   In the step (b), the character object is set to the second state after being set to the first state based on the first input operation, and the second input operation is performed in the first state or the second state. The method according to any one of claims 1 to 3, wherein the predetermined operation is performed based on the predetermined operation. 請求項1〜5のいずれか一項に記載のゲーム方法をコンピュータに実行させるためのゲームプログラム。

The game program for making a computer perform the game method as described in any one of Claims 1-5.

JP2017137464A 2017-07-13 2017-07-13 Gaming method and gaming program Pending JP2018069032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017137464A JP2018069032A (en) 2017-07-13 2017-07-13 Gaming method and gaming program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017137464A JP2018069032A (en) 2017-07-13 2017-07-13 Gaming method and gaming program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016214177A Division JP6180610B1 (en) 2016-11-01 2016-11-01 GAME METHOD AND GAME PROGRAM

Publications (1)

Publication Number Publication Date
JP2018069032A true JP2018069032A (en) 2018-05-10

Family

ID=62112467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017137464A Pending JP2018069032A (en) 2017-07-13 2017-07-13 Gaming method and gaming program

Country Status (1)

Country Link
JP (1) JP2018069032A (en)

Similar Documents

Publication Publication Date Title
US11752432B2 (en) Information processing device and method of causing computer to perform game program
JP6180610B1 (en) GAME METHOD AND GAME PROGRAM
JP7496013B2 (en) GAME PROGRAM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, AND GAME PRO
JP6921193B2 (en) Game programs, information processing devices, information processing systems, and game processing methods
JP2006146556A (en) Image display processing program and image display processing device
JP5676036B1 (en) User interface program and game program including the program
KR102205283B1 (en) Electro device executing at least one application and method for controlling thereof
CN106464749A (en) Interaction method for user interfaces
JP6470111B2 (en) Game program having message transmission function, message transmission method, and computer terminal with message transmission function
JP6480531B1 (en) Game program, information processing apparatus and method
JP6216862B1 (en) GAME METHOD AND GAME PROGRAM
JP2016129579A (en) Interface program and game program
JP2016220847A (en) Game program with message transmission function, message transmission method, and computer terminal with message transmission function
JP5953418B1 (en) Program, electronic apparatus, system and method for improving user input operability
JP6333779B2 (en) Display control apparatus, display control method, and computer program for executing the same on computer
US20090253505A1 (en) Method for controlling selection of multiple objects displayed on a display device
JP6189515B1 (en) GAME METHOD AND GAME PROGRAM
KR102545598B1 (en) Electronic device and method for providing virtual input tool
WO2018084169A1 (en) Gaming method and gaming program
JP4856136B2 (en) Movement control program
US8926427B2 (en) Video game with screen flip and dual sets of collision data
US10101905B1 (en) Proximity-based input device
JP2018069032A (en) Gaming method and gaming program
JP6453962B1 (en) Game program, information processing apparatus and method
JP6255525B1 (en) Electronic game apparatus and electronic game program