[go: up one dir, main page]

WO2018084169A1 - ゲーム方法およびゲームプログラム - Google Patents

ゲーム方法およびゲームプログラム Download PDF

Info

Publication number
WO2018084169A1
WO2018084169A1 PCT/JP2017/039494 JP2017039494W WO2018084169A1 WO 2018084169 A1 WO2018084169 A1 WO 2018084169A1 JP 2017039494 W JP2017039494 W JP 2017039494W WO 2018084169 A1 WO2018084169 A1 WO 2018084169A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
user
touch screen
displayed
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/039494
Other languages
English (en)
French (fr)
Inventor
洋平 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016214177A external-priority patent/JP6180610B1/ja
Priority claimed from JP2016214178A external-priority patent/JP6189515B1/ja
Priority claimed from JP2016214179A external-priority patent/JP6216862B1/ja
Application filed by Colopl Inc filed Critical Colopl Inc
Publication of WO2018084169A1 publication Critical patent/WO2018084169A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to a game method and a game program.
  • the control unit 30 When the coordinates of the initial touch position and the coordinates of the release operation are substantially the same (when the coordinates of the release operation are detected within the coordinates within a certain range from the coordinates where the approach operation is detected), the control unit 30 The user's operation is determined as “tap operation”.
  • the character operation detection unit 34 Based on the user's input operation on the touch screen 2, the character operation detection unit 34 causes the player character appearing in the game (hereinafter also referred to as “own character”) to perform a predetermined operation. Is detected.
  • the character operation detection unit 34 detects, for example, the direction in which the player character is moved based on the user's input operation. That is, the character operation detection unit 34 receives an input operation in which the user specifies the moving direction of the player character.
  • the object control unit 36 includes various objects that appear in a game that is progressed by the user terminal 1 executing a game program, and various objects that are generated based on user operation contents received by the input operation receiving unit 32 ( For example, processing such as generation, transformation, and movement of a GUI (Graphical User Interface) screen is controlled.
  • the object control unit 36 generates an operation object 40 indicating the moving direction of the player character based on, for example, an input operation on the touch screen 2 for moving the player character by the user. Details of the operation object 40 will be described later.
  • the control unit 30 accepts the drag operation and performs the drag operation on the player character 100. Control is performed so as to move in the direction corresponding to the direction (for example, the direction of arrow B).
  • Various user interface images 300 may be displayed on the left and right ends of the touch screen 2.
  • the UI image 300 includes, for example, a UI image 300A for displaying a map, a UI image 300B for changing a character, and a UI for activating a skill (one of attack actions performed by the player character 100 in the game). This is an image 300C.
  • the state (A) in FIG. 5 shows a state in which the user brings the finger closer to the touch screen 2 from the state in which the user's finger is separated from the touch screen 2.
  • the input operation reception unit 32 detects that the user's finger has approached the touch screen 2, and holds the detected coordinates in the memory (for example, the main memory 4 or the auxiliary memory 5) as the initial touch position.
  • the hit determination area 301 is an area for associating the input operation in the area with the operation of the UI image 300.
  • the hit determination area 301 is more than the display area of the UI image 300 as shown in FIG. It is set as a large area.
  • the hit determination area 301 may be set as an area having a size that matches the display area of the UI image 300.
  • step S4-1 the control unit 30 moves the operation object 40 to the user's object as shown in FIG. It is elastically deformed so that it can be pulled by a finger.
  • step S5-1 the control unit 30 determines whether or not the user's finger has left the touch screen 2 (whether a release operation has been input). When it is determined that the release operation has been input (Yes in step S5-1), the control unit 30 hides the operation object 40 and returns the process to step S1-1.
  • step S6-1 when it is determined in step S2-1 that the contact start point Ps is in the hit determination area 301 (Yes in step S2-1), step S6-1.
  • the control unit 30 determines whether or not the contact end point of the drag operation is within the hit determination area 301 of the UI image 300. At this time, the operation object 40 is not displayed. If it is determined that the contact end point is in the hit determination area 301 (Yes in step S6-1), in step S7-1, the control unit 30 determines whether the user's finger or the like has moved away from the contact end point ( It is determined whether or not a release operation has been input.
  • the control unit 30 enables the UI image 300 to be operated in step S8-1. Specifically, as shown in FIG. 16B, when both the contact start point Ps and the position (touch-off position) Pf where the release operation is input are within the hit determination area 301, the control unit 30 Performs an operation (for example, an action) associated with the UI image 300. For example, when the UI image 300 is a skill activation UI image 300 ⁇ / b> C (see FIG. 4), the control unit 30 causes the player character 100 to activate a predetermined skill. Thereafter, the control unit 30 returns the process to step S1-1. In the example of FIG.
  • the operation object 40 is not displayed in step S6-1 in order to avoid overlapping display of the UI image 300 and the operation object 40.
  • the present invention is not limited to this example.
  • the control unit 30 displays the operation object 40 so as to overlap the UI image 300, and when it is determined in step S7-1 that the touch-off position Pf is in the hit determination area 301.
  • the operation object 40 may be hidden.
  • step S6-1 when it is determined in step S6-1 that the contact end point is outside the hit determination area 301 (No in step S6-1), the control unit 30 displays the operation object 40 in step S9-1.
  • the reference position is updated so that the reference position for is placed at a predetermined position outside the hit determination area 301.
  • the updated reference position Ps ′ is an imaginary straight line connecting the contact start point Ps and the contact end point Pe. It is preferable to set a predetermined position outside the hit determination area 301 on L.
  • step S9-1 since the reference position Ps ′ is updated to be a predetermined position outside the hit determination area 301, the control unit 30 does not execute an operation (action) associated with the UI image 300.
  • step S10-1 the control unit 30 displays the base portion 42 of the operation object 40 around the reference position Ps 'as shown in FIG. 16D, and ends the contact from the reference position Ps'.
  • the operation object 40 is elastically deformed and displayed up to the point Pe.
  • the contact end point Pe ′ is updated. In this case, the extending direction of the operation object 40 changes as the tip end portion 44 of the operation object 40 further moves following the movement.
  • step S11-1 the control unit 30 determines whether or not a release operation has been input.
  • step S12-1 the control unit 30 moves the elastically deformed operation object 40 toward the updated reference position Ps ′.
  • the operation object 40 is restored and displayed so as to have the initial shape shown in FIG. 7A, and the operation object 40 restored and displayed after a predetermined time is hidden. Thereafter, the control unit 30 returns the process to step S1-1.
  • the reference position Ps ′ is updated to be a predetermined position outside the hit determination area 301 at that time.
  • FIG. 17B even if the user again inputs the release operation after returning the finger into the contact determination area 301, that is, the contact end point Pe once appears outside the contact determination area 301.
  • the reference position Ps ′ is not further updated so as to be in the hit determination area 301. Therefore, in this case, the control unit 30 does not execute an action associated with the UI image 300.
  • the control unit 30 changes from the reference position associated with the contact start point Ps to the contact end point Pe based on an input operation to the touch screen 2 by a user's finger or the like.
  • the player character 100 is caused to execute a predetermined action based on the input operation.
  • the control unit 30 determines whether or not the contact start point Ps and the contact end point Pe are within the hit determination area 301 of the UI image 300 displayed on the touch screen 2, respectively.
  • the reference position Ps ′ is set such that the reference position Ps ′ is disposed outside the hit determination area 301. Update ⁇ . Accordingly, even when the user touches the UI image 300 by mistake, the user can execute the operation of the operation object 40 without performing the touch operation again. Therefore, intuitive operation is possible and operability is improved.
  • the hit determination area 301 is set to coincide with the display area of the UI image 300 or to be larger than the display area of the UI image 300. Thereby, even when the operation object 40 (the base 42) is displayed with the updated reference position Ps ′ as a reference, the visibility of the UI image 300 is not unnecessarily impaired.
  • step S1-2 in FIG. 18 the control unit 30 outputs from the touch sensing unit 10 to the input operation receiving unit 32 whether or not the user's finger or the like has approached the touch screen 2 (an approach operation has been input). Judgment is made based on the received signal. If it is determined that the approach operation has been input (Yes in step S1-2), in step S2-2, the control unit 30 detects the position of the contact end point. In step S3-2, the control unit 30 determines whether or not the contact end point is included in a certain region including the position where the approach operation is detected (contact start point).
  • step S4-2 the control unit 30 determines that the user is requesting the operation of the player character 100, and a vector defined by the contact start point and the contact end point (see FIG. 5D). Based on the above, the player character 100 is caused to execute a predetermined action.
  • step S5-2 the control unit 30 displays the base 42 of the operation object 40 shown in FIG. 7 around the contact start point, and elastically deforms the operation object 40 based on the contact end point. Note that the operation object 40 may not be displayed. Thereafter, the process returns to step S1-2, and the process is repeated.
  • step S6-2 the control unit 30 continues the approach operation. It is determined whether a certain time has exceeded a certain time. That is, here, the control unit 30 determines whether or not the user's input operation is a “long press operation”. When it is determined that the user's input operation is “long press operation” (Yes in step S6-2), in step S7-2, the control unit 30 displays a predetermined UI image 60 (on the touch screen 2). 19) is displayed.
  • the UI image 60 includes a base unit 62, a first operation key 64 (an example of a first operation object), a second operation key 66 (an example of a second operation object), It is composed of For example, a substantially circular image may be displayed on the base portion 62, and an image may not be displayed. That is, the base unit 62 may be configured as a reference for determining the arrangement relationship between the first operation key 64 and the second operation key 66.
  • the first operation key 64 includes first to third icons 64A to 64C.
  • the first icon 64A corresponds to the player character 100 currently displayed on the touch screen 2 (that is, selected by the user).
  • the second icon 64B corresponds to the character 120 that can be changed by the user's own character 100.
  • the third icon 64 ⁇ / b> C corresponds to a character 140-1 that can be changed from the own character 100 by user selection and is different from the character 120.
  • the second operation key 66 is an operation key for activating the skill of the currently selected character.
  • the first icon 64A information (for example, “in use”) indicating the currently used character (self character 100) is displayed. Since the first icon 64A is an icon corresponding to the player character 100 currently displayed on the touch screen 2, it is preferably displayed in an unselectable state. That is, even if the user performs a release operation on the first icon 64A, no action is executed.
  • the second icon 64B and the third icon 64C information of the own character 100 and the changeable characters 120 and 140-1 (for example, the faces of the characters 120 and 140-1) are displayed, respectively. For example, “skill” is displayed on the second operation key 66.
  • the present invention is not limited to this example.
  • these operation keys may be arranged in the right region of the base unit 62 by the user's selection operation.
  • the arrangement relationship of the operation keys 64 and 66 is fixed. That is, the arrangement of the first operation key 64 (each icon 64A to 64C) and the second operation key 66 can be switched symmetrically between an input operation with the user's right hand and an input operation with the user's left hand. There may be.
  • the operability is further improved by switching the arrangement of the operation keys 64 and 66 symmetrically with respect to the base unit 62 according to whether the user operates the touch screen 2 with the right hand or the left hand. Can do.
  • step S8-2 the control unit 30 determines whether or not a release operation has been input. If it is determined that a release operation has been input (Yes in step S8-2), in step S9-2, the control unit 30 determines that the position (touch-off position) where the release operation has been input is the operation keys 64 and 66. It is determined whether it is included in the area. When it is determined that the touch-off position is not included in the area of the operation keys 64 and 66 (No in step S9-2), in step S10-2, the control unit 30 causes the user to operate the operation keys 64 and 66. It is determined that an operation corresponding to the above is not requested, and the UI image 60 is not displayed without performing any action. Thereafter, the process returns to step S1-2, and the process is repeated.
  • step S11-2 the control unit 30 selects the selected operation key.
  • the operation corresponding to is executed. For example, if it is determined that a release operation has been input on the third icon 64C as shown in FIG. 20A, the control unit 30 determines that the player character is as shown in FIG. Instead of 100, the character 140-1 corresponding to the second icon 64C is displayed on the touch screen 2 and the UI image 60 is not displayed. Thereafter, the process returns to step S1-2, and the process is repeated.
  • FIG. 21 shows the UI image 60 when a long press operation is input after the character displayed on the touch screen 2 is changed from the player character 100 to another character 140-1.
  • “in use” is displayed on the third icon 64C corresponding to the character 140-1 currently displayed on the touch screen 2, and the third icon 64C cannot be selected.
  • the first icon 64A and the second icon 64B display the faces of the character 140-1 and the changeable characters 100 and 120, respectively.
  • step S7-2 when a drag operation is input in a state where the UI image 60 is displayed by the long press operation, the control unit 30 determines whether the drag operation from the contact start point to the contact end point is less than a certain speed. Determine whether or not.
  • the speed of the drag operation can be detected based on, for example, the amount of slide and the number of frames from the contact start point to the contact end point of the drag operation.
  • the control unit 30 When the detection speed of the drag operation is equal to or lower than a predetermined threshold, the control unit 30 operates the character 100 according to the drag operation (moving, jumping, etc.) while moving the UI image 60 following the drag operation. ). For example, as illustrated in FIG. 22A, when the user performs a drag operation in the direction of arrow C from the state in which the UI image 60 is displayed by the long press operation, the control unit 30 displays the UI image 60. The user character 100 is caused to perform a predetermined action and move the UI image 60 based on the direction of the drag operation. For example, when the drag direction is diagonally upward, as shown in FIG. 22B, the character 100 is caused to jump while the operation object 40 is displayed while being elastically deformed based on the drag direction.
  • the control unit 30 moves the UI image 60 according to the drag direction while maintaining the positional relationship between the first operation key 64 (icons 64A to 64C) and the second operation key 66.
  • the character currently displayed can be operated, maintaining the state which can change the character 100 to another character.
  • the operation keys 64 and 66 cannot be selected.
  • the control unit 30 does not move the UI image 60 following the drag operation, and allows the operation keys 64 and 66 to be selected. That is, in this case, the user can select the operation keys 64 and 66 by performing a release operation on the operation keys 64 and 66.
  • the degree of freedom in operability can be improved by switching between the operation of the player character 100 and the operation of the operation keys 64 and 66 according to the speed of the drag operation.
  • the control unit 30 is the first for changing the player character 100 to the touch screen 2 based on the user's long press operation on an arbitrary position on the touch screen 2.
  • the operation key 64 (UI image 60) is displayed, and the user selects and operates the first operation key 64, whereby the player character 100 displayed on the touch screen 2 is changed to a different character (for example, the character 140-1). And change.
  • the UI image 60 for changing the player character 100 only during the long press operation by the user is provided without affecting the operation area in the space displayed on the touch screen 2 and the viewable range at the normal time. be able to.
  • the user can store the positions of the operation keys 64 and 66. Thereby, the user can memorize the positions of the icons 64A to 64C corresponding to the characters 100, 120, and 140-1 and the operation keys 66 for activating the skill, so that the user can visually recognize the display of the UI image 60. Character change and skill activation can be executed.
  • a game method is a game method for controlling a character object displayed on a touch screen in accordance with a user input operation,
  • the game method is (A) displaying an operation object on the touch screen from a start point of the input operation toward an end point of the input operation; (B) causing the character object to perform a predetermined action based on the input operation; (C) detecting the state of the character object in the step (b); (D) displaying predetermined information associated with the detected state of the character object on the touch screen in association with the operation object.
  • the operation object is an object displayed between the start point and the end point
  • the operation object is displayed such that one of the reference point side portion and the end point side portion is an enlarged portion larger than the other portion
  • the predetermined information may be displayed inside the enlarged portion.
  • a narrow screen such as a smartphone can be effectively used by displaying the state display information on the enlarged portion of the operation object which is a dead space on the touch screen.
  • the display angle of the predetermined information on the touch screen may be fixed regardless of the positional relationship between the start point and the end point. According to the above method, the visibility of the information displayed in the operation object can be ensured.
  • the character object is set to the first state by performing a first input operation, and the predetermined operation is performed by performing the second input operation in the first state. May be executed.
  • the predetermined operation may be executed by performing a second input operation. According to these methods, the success or failure of the input operation can be fed back to the user in an easy-to-understand manner even for an operation (action) that requires a plurality of input operations.
  • a program according to an embodiment of the present disclosure is a program for causing a computer to execute the game method described in any one of (Item 1) to (Item 5). According to this configuration, it is possible to provide a program capable of intuitively giving feedback to the input operation to the user.
  • a game method is a game method for controlling a character object displayed on a touch screen in accordance with a user input operation,
  • the game method is (A) displaying an operation object on the touch screen from a reference position associated with a start point of the input operation toward an end point of the input operation; (B) causing the character object to perform a predetermined action based on the input operation; (C) determining whether the start point and the end point are each within a predetermined area of a user interface image displayed on the touch screen; (D) If it is determined in step (c) that the start point is within the predetermined area and the end point is outside the predetermined area, the reference position is disposed outside the predetermined area. Updating the reference position as described.
  • a game program according to an embodiment of the present disclosure is a game program for causing a computer to execute the game method described in any one of (Item 1) to (Item 6). According to this configuration, even when the user accidentally touches the user interface image, it is possible to provide a game program that can execute the operation of the operation object without performing the touch operation again.
  • a game method is a game method for controlling a character object displayed on a touch screen in accordance with a user input operation, The game method is (A) displaying a first operation object for changing the character object on the touch screen based on the input operation on an arbitrary position on the touch screen; (B) including a step of changing the first character object displayed on the touch screen to a second character object by the user selecting and operating the first operation object.
  • the first icon associated with the first character object is arranged so as to be asymmetric with respect to the left-right direction of the touch screen,
  • the arrangement of the first icon and the second icon may be switched symmetrically between an input operation with the user's right hand and an input operation with the user's left hand. According to the above method, the operability can be further improved by switching the icon arrangement according to whether the user operates the touch screen with the right hand or the left hand.
  • step (a) in addition to the first operation object, a predetermined character object is displayed on the touch screen among the first character object and the second character object. You may display the 2nd operation object for performing operation
  • a user interface for executing a motion of a character object only when a long press operation is performed by the user, usually without affecting the operation area and the visible range of the touch screen.
  • the arrangement relationship between the first operation object and the second operation object may be fixed. According to the above method, since the user can memorize the position of each operation object, the user can change the character object and execute the action without visually recognizing the screen display.
  • a game program according to an embodiment of the present disclosure is a game program for causing a computer to execute the game method described in any one of (Item 1) to (Item 8).
  • the user interface for changing the character object only during a predetermined operation by the user without affecting the operation area or the viewable range in the space normally displayed on the touch screen is provided.
  • Game programs can be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

入力操作に対するフィードバックをユーザへ直感的に与えることが可能なゲーム方法を提供する。ユーザの入力操作に従って、タッチスクリーン2に表示されるキャラクタオブジェクトを制御するゲーム方法を提供する。当該ゲーム方法は、(a)入力操作の開始点から入力操作の終了点に向けて、タッチスクリーン2上に操作オブジェクト40を表示させるステップと、(b)入力操作に基づいて、キャラクタオブジェクト100に所定の動作を実行させるステップと、(c)ステップ(b)におけるキャラクタオブジェクト100の状態を検出するステップと、(d)検出されたキャラクタオブジェクト100の状態に関連付けられた所定の情報を、操作オブジェクト40に付随してタッチスクリーン2上に表示させるステップと、を含む。

Description

ゲーム方法およびゲームプログラム
 本発明は、ゲーム方法およびゲームプログラムに関する。
 特許文献1には、タッチパネル上でスライド操作がされた場合、スライド操作開始点に弾性オブジェクトを表示し、スライド操作終了点に向けて弾性オブジェクトが弾性変形を伴いながら延びるように表示されるユーザインターフェースプログラムが開示されている。
 特許文献2には、スマートフォンによって実行されるビデオゲームにおいて、スマートフォンのタッチパネルに表示されるキャラクタオブジェクトをユーザがタッチ操作することで、タッチパネルに対するスライド操作方向とキャラクタオブジェクトの移動やジャンプなどの各アクションとを対応付けてキャラクタオブジェクトを制御するゲーム操作方法が開示されている。
 特許文献3には、格闘技ゲームにおいて、複数の入力操作により特定される入力手順が、基準手順に一致するか否かを判断し、入力操作が基準手順に一致した場合には、入力操作の内容を視覚的に識別するための識別記号を画面上に表示させることが開示されている。
 特許文献4には、タッチスクリーンを長押しすると複数のスキル発動用の操作キーが出現し、当該操作キーに対するスライド操作によってスキルを発動できることが開示されている。
 非特許文献1には、スマホゲームの横スクロールアクションにおいて、上フリックでジャンプ後、ジャンプ中に下フリックすると、兜割りという技が出せることが開示されている。このようなゲームでは、技を出すのに成功すると、画面上のキャラクタに付随してアクション名を表示させることが知られている。
特開2015-222595号公報 特開2016-051266号公報 特開平09-239149号公報 特開2015-217006号公報
"SAOメモデフ(メモリーデフラグ)攻略Wiki"、[online]、平成28年9月15日、Game8、[平成28年10月3日検索]、インターネット<URL:https://game8.jp/sao-md/boss/86386>
 上記のようなビデオゲームにおいては、ユーザの操作性を改善する余地がある。
 本開示は、ビデオゲームにおけるユーザの操作性を改善することを目的とする。
 本開示に示す一実施形態によれば、ユーザの入力操作に従って、タッチスクリーンに表示されるキャラクタオブジェクトを制御するゲーム方法が提供される。当該ゲーム方法は、
 (a)前記入力操作の開始点から前記入力操作の終了点に向けて、前記タッチスクリーン上に操作オブジェクトを表示させるステップと、
 (b)前記入力操作に基づいて、前記キャラクタオブジェクトに所定の動作を実行させるステップと、
 (c)前記ステップ(b)における前記キャラクタオブジェクトの状態を検出するステップと、
 (d)検出された前記キャラクタオブジェクトの前記状態に関連付けられた所定の情報を、前記操作オブジェクトに付随して前記タッチスクリーン上に表示させるステップと、を含む。
 また、本開示に示す一実施形態によれば、上記に記載のゲーム方法をコンピュータに実行させるためのゲームプログラムが提供される。
 本開示によれば、ビデオゲームにおけるユーザの操作性を改善することができる。
本実施形態に係るユーザ端末を示す図である。 本実施形態に係るユーザ端末のハードウェア構成を示す図である。 本実施形態に係るユーザ端末の機能ブロック図である。 本実施形態に係るユーザ端末のタッチスクリーン上に表示されるゲームのゲーム画面の一例を示す図である。 操作検出部が、ユーザの入力操作に応じてプレイヤキャラクタを移動させる方向を検出する処理を示す図である。 プレイヤキャラクタ(ここでは、自キャラクタ)の動作テーブルを示す図である。 (A)は、タッチスクリーン上に表示される操作オブジェクトの一例を示す図であり、(B)は操作オブジェクトが弾性変形した状態を示す図である。 本実施形態に係るゲームプログラムで実装される主要な機能モジュールを示す模式図である。 本実施形態において操作オブジェクト内にプレイヤキャラクタの状態に関する情報を表示させるための処理を示すフローチャートである。 (A)および(B)は、図9のフローチャートにおけるゲーム画面の例を示す図である。 ユーザがプレイヤキャラクタに所定のアクションを実行させたい場合の画面例であり、(A)はプレイヤキャラクタがジャンプしている状態の画面例を示す図であり、(B)は、所定のアクションの入力操作が成功した場合の画面例を示す図であり、(C)は当該アクションの入力操作が失敗した場合の画面例を示す図である。 ユーザがプレイヤキャラクタに所定のアクションを実行させたい場合の画面例であり、(A)はプレイヤキャラクタがジャンプしている状態の画面例を示す図であり、(B)は、所定のアクションの入力操作が成功した場合の画面例を示す図であり、(C)は当該アクションの入力操作が失敗した場合の画面例を示す図である。 変形例に係るゲーム画面を示す図である。 別の変形例に係る操作オブジェクトを示す図である。 本実施形態において操作オブジェクトを表示させるための処理を示すフローチャートである。 (A)~(E)は、図15のフローチャートにおけるゲーム画面の例を示す図である。 (A)および(B)は、本実施形態に係る操作オブジェクトの表示処理に基づくゲーム画面の例を示す図である。 本実施形態においてプレイヤキャラクタを変更するためのユーザインターフェース画像の表示処理を示すフローチャートである。 図18のフローチャートにおけるゲーム画面の例を示す図である。 (A)および(B)は、図18のフローチャートにおける図19に連続するゲーム画面の例を示す図である。 プレイヤキャラクタを変更した後でのユーザインターフェース画像の例を示す図である。 (A)および(B)は、プレイヤキャラクタ変更用のユーザインターフェース画像を表示させたままスライド操作が入力された場合のゲーム画面の例を示す図である。
 以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
 本開示の実施の形態によるゲームプログラムは、図1に示されるように、タッチスクリーン2を備えたユーザ端末1において実行されるものである。ユーザ端末1は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。ユーザ端末1は、例えば、アプリ等を配信するプラットフォームを介してゲームプログラムをインストールする。ユーザ端末1は、ユーザ端末1にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。ユーザは、タッチスクリーン2を介してゲーム内のプレイヤキャラクタ(キャラクタオブジェクトの一例)を操作することができる。ユーザ端末1は、例えば、スマートフォン、PDA(Personal Digital Assistant)、タブレット型コンピュータ等の携帯可能な端末であってもよいし、パーソナルコンピュータ、ビデオゲーム機器等であってもよい。
 なお、ユーザ端末1はネットワークを介してゲーム・サーバと通信を行ってもよい。この場合は、以下の実施形態におけるユーザ端末1に関する様々な機能の全部または一部はゲーム・サーバが担い、例えば、ゲーム・サーバで生成されるゲーム画像をブラウザ等のアプリケーションによりユーザ端末1で表示できるように構成してもよい。さらに、ゲーム・サーバを介して、ユーザ端末1を別のユーザ端末と通信可能な構成とすることもできる。
 図2に示されるように、ユーザ端末1は、ハードウェア構成として、互いにバス接続されたCPU(Central Processing Unit)3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備えている。このうち主記憶4は例えばDRAM(Dynamic Random Access Memory)などで構成されており、補助記憶5は例えばHDD(Hard Disk Drive)などで構成されている。補助記憶5には、本実施の形態によるゲームプログラムが格納されている。ゲームプログラムは、主記憶4上に展開されCPU3によって実行される。なお、主記憶4上には、CPU3がゲームプログラムに従って動作している間に生成したデータやCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりユーザ端末1とネットワークとの接続を確立する。入力部8は、タッチスクリーン2である表示部7に対するユーザの操作を検知して、ユーザ端末1に対して何らかの操作があったことを検知する。
 図3は、本実施形態に係るユーザ端末1の機能ブロック図の一例を示す。
 本実施の形態における表示部7および入力部8は上述したタッチスクリーン2に相当する。タッチスクリーン2は、図3に示されるように、入力部8に相当するタッチセンシング部10と、表示部7に相当するディスプレイ20とを有している。タッチスクリーン2は、ユーザのタッチ操作(タッチスクリーン2における物理的接触操作等)を受け付ける。具体的には、タッチセンシング部10はユーザによるタッチ操作に応じた操作信号を制御部30へ出力する。タッチ操作は、ユーザの指によりなされてもよいし、スタイラス等でもよい。ディスプレイ20は、制御部30から出力される表示信号に基づいてユーザ操作に対応する画像を表示する。ディスプレイ20は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)などの表示装置によって実現される。
 制御部30は、タッチセンシング部10が受け付けたユーザからの指示に基づいてゲームプログラムを実行し、ゲーム世界においてプレイヤとして機能するプレイヤキャラクタの動作を制御しつつ、ゲームを進行させる。制御部30は、ゲームプログラムを実行することにより、入力操作受付部32と、キャラクタ操作検出部34と、オブジェクト制御部36と、表示制御部38と、の各機能を発揮する。
 入力操作受付部32は、タッチスクリーン2の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部32は、ユーザの指などがタッチセンシング部10に接近したことを、タッチスクリーン2を構成する面の横軸および縦軸からなる座標系の座標として検出する。
 入力操作受付部32は、タッチスクリーン2に対するユーザの操作を判別する。入力操作受付部32は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「長押し操作(ロングタッチ操作)」、(5)「ドラッグ操作(スワイプ操作)」 などのユーザの操作を判別する。入力操作受付部32が判別するユーザの操作は、上記に限られない。例えば、タッチセンシング部10が、ユーザがタッチセンシング部10に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部32は、ユーザが押下した圧力の大きさを判別する。
 (1)「接近操作」とは、ユーザが指などをタッチスクリーン2に接近させる操作である。タッチスクリーン2は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン2に接触したことを含む)をタッチセンシング部10により検出し、検出したタッチスクリーン2の座標に応じた信号を入力操作受付部32へ出力する。制御部30は、タッチスクリーン2へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。
 (2)「リリース操作」とは、ユーザがタッチスクリーン2を接近操作している状態を止める操作である。制御部30は、例えば、ユーザが指をタッチスクリーン2に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部30は、タッチスクリーン2へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。
 (3)「タップ操作」とは、ユーザがタッチスクリーン2に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部32は、接近操作が検出されない状態(ユーザの指などがタッチスクリーン2から離れており、タッチセンシング部10がユーザの指などの接近を検出していない状態)から、タッチスクリーン2の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。制御部30は、初期タッチ位置の座標と、リリース操作をした座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作の座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。
 (4)「長押し操作」とは、ユーザがタッチスクリーン2を押し続ける操作である。制御部30は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標(あるいは当該座標を含む一定領域内)において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。
 (5)「ドラッグ操作」とは、ユーザがタッチスクリーン2に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。
 キャラクタ操作検出部34は、タッチスクリーン2に対するユーザの入力操作に基づいて、ゲームに登場するプレイヤキャラクタ(以下、「自キャラクタ」と称することもある)に所定の動作を実行させる入力操作の操作内容を検出する。キャラクタ操作検出部34は、ユーザの入力操作に基づいて、例えば、プレイヤキャラクタを移動させる方向を検出する。すなわち、キャラクタ操作検出部34は、ユーザがプレイヤキャラクタの移動方向を指定する入力操作を受け付ける。
 具体的には、キャラクタ操作検出部34は、タッチスクリーン2からユーザの指が離れた状態から、ユーザが指をタッチスクリーン2に接近させて、入力操作受付部32がタッチセンシング部10にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン2の検出結果とに基づいて、プレイヤキャラクタの移動方向を検出する。キャラクタ操作検出部34での具体的な処理については、後述する。
 オブジェクト制御部36は、ユーザ端末1がゲームプログラムを実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部32が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面)の生成、変形、移動などの処理を制御する。オブジェクト制御部36は、例えば、ユーザがプレイヤキャラクタを移動させるためのタッチスクリーン2に対する入力操作に基づいて、プレイヤキャラクタの移動方向を示す操作オブジェクト40を生成する。操作オブジェクト40の詳細については、後述する。
 表示制御部38は、キャラクタ操作検出部34およびオブジェクト制御部36での制御に応じて、ディスプレイ20の表示内容を決定し、決定した表示内容に従った画像、テキスト等の各種の情報をディスプレイ20に出力する。例えば、表示制御部38は、プレイヤキャラクタをディスプレイ20の一定領域に表示させた状態で、入力操作受付部32によって受け付けた入力操作に応じて操作オブジェクト40を表示させつつプレイヤキャラクタに所定の動作(例えば、移動やジャンプ動作)を行わせる画面表示を行う。
 図4は、本実施形態に係るユーザ端末1のタッチスクリーン2に表示されるゲーム画面の一例を示す。図4の画面例は、ユーザが操作する自キャラクタ100(キャラクタオブジェクト、プレイヤキャラクタの一例)に、所定の動作を行わせるための入力操作を受け付ける画面である。制御部30は、タッチスクリーン2に、ユーザが操作するプレイヤキャラクタである自キャラクタ100と、対戦相手(敵)となるキャラクタである相手キャラクタ200とを表示させて、ユーザに対し、自キャラクタ100に所定の動作を行わせるための入力操作を受け付ける。自キャラクタ100および相手キャラクタ200は、ユーザ端末1を縦型となるように置いたときに、その上下方向においてタッチスクリーン2の中央付近(例えば、タッチスクリーン2をその上下方向に三分割したときの中央の領域内)に、例えば、左右方向において進行方向に視野がやや広くなるように表示される。タッチスクリーン2の下方には、例えば地面の断面(図4のドット模様の部分)が表示されている。タッチスクリーン2の下半部、すなわち地面の断面が表示された部分は、後述の操作オブジェクト40を操作するためのスペースとして利用可能である。ユーザは、タッチスクリーン2の任意位置への操作によって、自キャラクタ100を操作することができる。ユーザが、例えば、ディスプレイ20の左右方向に沿った方向(図4の矢印Aの方向)のドラッグ操作を入力した場合、制御部30は、そのドラッグ操作を受け付けて、自キャラクタ100をドラッグ操作の方向に対応する方向(例えば、矢印Bの方向)に移動させるよう制御する。
 なお、タッチスクリーン2の左右方向の端部には、各種のユーザインターフェース画像300が表示されていても良い。UI画像300は、例えば、マップを表示するためのUI画像300A、キャラクタを変更するためのUI画像300B、スキル(ゲーム内で自キャラクタ100により行われる攻撃アクションの一つ)を発動させるためのUI画像300Cである。
<1.自キャラクタの動作制御>
 図5は、キャラクタ操作検出部34が、ユーザの入力操作に応じて自キャラクタ100を移動させる方向を検出する処理を示す図である。キャラクタ操作検出部34は、ユーザがタッチスクリーン2を押していない状態から、指などをタッチセンシング部10に接近させてタッチスクリーン2を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部32は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン2がユーザの指などの接近を検出している座標とに基づいて、自キャラクタ100を移動させる方向を検出する。
 図5の状態(A)は、タッチスクリーン2からユーザの指が離れた状態から、ユーザが指をタッチスクリーン2に接近させた状態を示す。入力操作受付部32は、ユーザの指がタッチスクリーン2に接近したことを検出し、検出した座標を初期タッチ位置としてメモリ(例えば、主記憶4または補助記憶5)に保持する。
 図5の例では、メモリが保持する初期タッチ位置の座標を、初期タッチ位置座標55として示す。入力操作受付部32は、タッチスクリーン2の検出結果(ユーザの指がタッチスクリーン2に接近している座標、および、ユーザの指がタッチスクリーン2に接近していることを検出していないこと(検出結果「null」))を、一定フレーム分、バッファメモリ53に格納する。バッファメモリ53は、タッチスクリーン2における検出結果を、各フレームについて一定フレーム分(図5の例では、メモリ領域fp〔0〕~メモリ領域fp〔10〕までの11フレーム分)、格納することができる。バッファメモリ53は、例えばリングバッファとして実現することができる。
 状態(A)の例では、ユーザがタッチスクリーン2を押した位置を、押下位置50A(タッチスクリーン2の座標(x0,y0))として示す。
 図5の状態(B)は、ユーザがタッチスクリーン2に対してドラッグ操作を行って、タッチスクリーン2に対する押下位置を、押下位置50Aから押下位置50B(タッチスクリーン2の座標(x9,y9))まで10フレーム(メモリ領域fp〔0〕~メモリ領域fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部32は、タッチスクリーン2の検出結果をバッファメモリ53に格納し、バッファメモリ53に保持される値を参照して、タッチスクリーン2に対するユーザの操作をドラッグ操作と判別する。
 図5の状態(C)は、ユーザがタッチスクリーン2を押している位置を、押下位置50Bから押下位置50C(タッチスクリーン2の座標(x14,y14))まで、5フレーム(メモリ領域fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。
 図5の状態(D)は、キャラクタ操作検出部34が、状態(B)および状態(C)のそれぞれにおいて、ユーザが自キャラクタ100を移動させる方向を指定する入力操作の検出結果を示す。キャラクタ操作検出部34は、バッファメモリ53において、タッチスクリーン2が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリ53の書き込み位置)を管理している。
 状態(B)において、キャラクタ操作検出部34は、入力操作受付部32の判別結果に基づいて、初期タッチ位置を示す座標51A(座標(x0,y0))から座標51B(座標(x9,y9))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部34は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Bとによって規定されるベクトル52B((y9-y0)/(x9-x0))を、自キャラクタ100を移動させる方向として検出する。
 状態(C)において、キャラクタ操作検出部34は、入力操作受付部32の判別結果に基づいて、座標51B(座標(x9,y9))から座標51C(座標(x14,y14))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部34は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Cとによって規定されるベクトル52C((y14-y0)/(x14-x0))を、自キャラクタ100を移動させる方向として検出する。
<2.自キャラクタの動作例>
 図6に、自キャラクタ100の動作テーブル60(アクション例)を示す。動作テーブル60は、例えば、制御部30(表示制御部38)に記憶されている。図6に示すように、動作テーブル60には、ユーザの入力操作と、入力操作時の自キャラクタ100の状態とに基づいて自キャラクタ100に実行させる所定のアクションが設定されている。動作テーブル60に例示された例1~8について、以下に詳述する。
 例1:ユーザがタップ操作した場合には、自キャラクタ100がどのような状態であっても(すなわち、地面に着地していても着地していなくても)、制御部30は、自キャラクタ100に攻撃動作(例えば、持っている剣を振る)を実行させる。
 例2:ユーザが横スライド操作(ここで、タッチスクリーン2の左右方向(水平方向)に沿った向きを0度とし、水平方向よりも上側を正とし、下側を負とした場合に、例えば、-45度から+30度の範囲内のドラッグ操作を、横スライド操作と称する。)を行い、かつ、自キャラクタ100が地面に着地している場合には、制御部30は、自キャラクタ100をドラッグ操作の方向に移動させる。なお、ドラッグ操作の開始点と終了点の距離(スライド量)が所定の閾値以下の場合は、自キャラクタ100を歩かせるようにし、スライド量が所定の閾値よりも大きい場合には、自キャラクタ100を走らせるようにしてもよい。
 例3:ユーザが上スライド操作(例えば、+60度から+120度の範囲内のドラッグ操作を、上スライド操作と称する。)を行い、かつ、自キャラクタ100が地面に着地している場合には、制御部30は、自キャラクタ100にジャンプ動作を実行させる。
 例4:ユーザが例3と同様の上スライド操作を行い、かつ、自キャラクタ100が地面に着地していない場合には、制御部30は、自キャラクタ100が地面に着地した後にジャンプ動作を実行させる。すなわち、この場合は、自キャラクタ100のジャンプ動作が繰り返される。
 例5:ユーザが下スライド操作(例えば、-45度から-135度の範囲内のドラッグ操作を、下スライド操作と称する。)を行い、かつ、自キャラクタ100が地面に着地している場合には、制御部30は、自キャラクタ100をしゃがみ込ませる。
 例6:ユーザが例5と同様の下スライド操作を行い、かつ、自キャラクタ100が地面に着地していない場合には、制御部30は、自キャラクタ100に下方攻撃動作(いわゆる、兜割り)を実行させる。
 例7:ユーザが斜め上スライド操作(例えば、+30度から+60度の範囲内のドラッグ操作を、斜め上スライド操作と称する。)を行い、かつ、自キャラクタ100が地面に着地している場合には、制御部30は、自キャラクタ100を斜めにジャンプさせ、着地後に地面上を移動させる。
 例8:ユーザが例7と同様の斜め上スライド操作を行い、かつ、自キャラクタ100が壁などの障害物に接している場合には、制御部30は、自キャラクタ100に壁を蹴って上方へジャンプする動作(いわゆる、三角飛び)を実行させる。
 制御部30は、例えば、ユーザの上スライド操作(第一の入力操作の一例)を受け付けると、動作テーブル60を参照して自キャラクタ100をジャンプさせた状態(第一の状態の一例)とし、ジャンプさせた状態においてユーザの下スライド操作(第二の入力操作の一例)を受け付けると、動作テーブル60を参照して自キャラクタ100に兜割りを実行させる。また、斜めスライド操作を受け付けた場合には、制御部30は、斜め上スライド操作に基づいて動作テーブル60を参照して自キャラクタ100をジャンプ状態(第一の状態)とした後に地面上を移動させる状態(第二の状態の一例)とする。そして、制御部30は、自キャラクタ100をジャンプさせた状態または地面を移動させた状態において所定の入力操作(例えば、下スライド動作)を受け付けると、動作テーブル60を参照して自キャラクタ100に所定の動作(ジャンプ状態の場合には兜割り、移動状態の場合にはしゃがみ込み)を実行させる。
<3.操作オブジェクトの基本構成>
 本実施形態に係る操作オブジェクト40(図4参照)は、ユーザのタッチスクリーン2に対する接近操作が検知されるとタッチスクリーン2に表示される。操作オブジェクト40は、ユーザが自キャラクタ100を移動させる方向を示す弾性状のオブジェクトである。操作オブジェクト40は、図7の(A)に示すように、指接触時の初期形状として、タッチスクリーン2に接触した位置(例えば、図5の初期タッチ位置座標51A)である接触開始点に関連付けられた基準位置の周囲に、円形状の基部42を有するように形成される。なお、基準位置は、最初に指がタッチスクリーン2に触れた座標でなくても良く、例えば、最初に指が触れたフレームの数フレーム後のフレームにおいて指が触れていた座標であっても良い。
 ユーザがタッチスクリーン2上で接触開始点から接触終了点(ここで、接触終了点とは、ユーザの指などがタッチスクリーン2に接触した状態での最終地点を意味する)までドラッグ操作を行うと、図7の(B)に示すように操作オブジェクト40は、ユーザの指に引っ張られるような弾性変形を伴う。このとき、操作オブジェクト40は、ドラッグ操作の接触開始点に対応して表示される基部(拡大部)42に加えて、ドラッグ操作の接触終了点(注:指はタッチスクリーン2に接触したままの状態である。)付近に位置する先端部44と、基部42と先端部44との間を接続する接続部46とを含むように構成される。このように操作オブジェクト40は、接触開始点から接触終了点に向けて入力されたドラッグ操作の方向に弾性的に延ばされるように形成される。また、ユーザが接触終了点を接触状態に維持しつつタッチスクリーン2上において更に指などを移動させた場合、先端部44もそれに追従して更に移動し操作オブジェクト40の延びる向きも変化する。ユーザによるドラッグ操作が終了した際に(すなわち、タッチスクリーン2上において接触終了点からユーザの指が離れた際に)、弾性変形した操作オブジェクト40が、その復元力に従って、接触開始点に向けて段階的に萎縮して、図7の(A)に示した初期形状に復元するように表示され、一定時間経過後に非表示となる。
 なお、図7の(A)では、接触開始点を中心に円形状の基部42を形成しているが、必ずしもこれに限定されない。例えば、基部42を接触開始点から一定距離だけ上部または下部にずらして形成しても良い。すなわち、操作オブジェクト40の基部42は、接触開始点に関連付けられた所定の位置(基準位置)に対応して表示されていても良い。また、接触開始点に形成した操作オブジェクト40(基部42)をドラッグ操作に応じて変形させずに、接触開始点から接触終了点に向けて、操作オブジェクトの一部を構成する別のオブジェクトを表示させるようにしても良い。
<4.主要な機能モジュールの説明>
 図8~図10を参照して、本実施形態に係るゲームプログラムで実装される主要な機能モジュールとその動作処理について説明する。当該機能モジュールを通じて、操作信号としての入力を処理して、表示信号としての出力を生成することになる。
 図8に示す操作オブジェクト制御プログラムモジュール(操作オブジェクト制御PM)80は、タッチスクリーン2(タッチセンシング部10)を通じたユーザの入力操作に基づいて操作オブジェクト40を制御するためのモジュールである。キャラクタ制御プログラムモジュール(キャラクタ制御PM)90は、タッチスクリーン2を通じたユーザの入力操作に応じて仮想空間内の自キャラクタ100の動作を制御して自キャラクタ100を操作するためのモジュールである。操作オブジェクト制御PM80は、入力操作受付プログラムモジュール(入力操作受付PM)82と、操作オブジェクト描画プログラムモジュール(操作オブジェクト描画PM)84とを含む。入力操作受付PM82は、図3に示す入力操作受付部32としての機能を有し、操作オブジェクト描画PM84は、オブジェクト制御部36および表示制御部38としての機能を有する。キャラクタ制御PM90は、キャラクタ操作検出部34としての機能を有する。
 タッチスクリーン2上でユーザの指などによる入力操作(例えば、接近操作)が実行されると、入力操作受付PM82は、入力操作を受け付け、受け付けた入力操作に関する情報(入力操作情報)をキャッシュメモリ(例えば、図5のバッファメモリ53)に格納する(図9のステップS1)。次に、キャラクタ制御PM90は、入力操作受付PM82から入力操作情報を取得する(ステップS2)。そして、キャラクタ制御PM90は、ゲーム内状況に基づいて、例えば、自キャラクタ100の状態(地面に着地しているか否か、壁などの障害物に接しているか否か、など)に関する情報を取得する(ステップS3)。なお、ここでの「自キャラクタ100の状態」とは、キャラクタの動作に関連する状態(例えば、着地状態か否か)を示し、キャラクタのステータスの異常状態(例えば、毒や石化)などは含まない。
 次いで、キャラクタ制御PM90は、ステップS2で取得した入力操作情報とステップS3で取得した自キャラクタ100の状態に関する情報(以下、キャラクタ状態情報と称する)に基づいて、図6の動作テーブル60を参照して自キャラクタ100を制御する(ステップS4)。例えば、ユーザが横スライド操作を行い、かつ、自キャラクタ100が地面に着地している場合には、キャラクタ制御PM90は、横スライド操作情報、および自キャラクタ100が地面に着地状態であるという情報を取得し、これらの情報から動作テーブル60の例2に基づいて、図10の(A)に示すように自キャラクタ100をドラッグ操作の方向(矢印Cの方向)に移動させる。なお、キャラクタ制御PM90は、自キャラクタ100の制御結果に基づいて、相手キャラクタ200を制御することもできる。例えば、キャラクタ制御PM90は、自キャラクタ100が相手キャラクタ200を攻撃した場合、その攻撃を受けたことを表すアクションを相手キャラクタ200に行わせることができる。
 次に、操作オブジェクト制御PM80内の操作オブジェクト描画PM84は、入力操作受付PM82から入力操作情報を取得するとともに、キャラクタ制御PM90からキャラクタ状態情報を取得する(ステップS5)。そして、操作オブジェクト描画PM84は、ステップS5で取得した入力操作情報およびキャラクタ状態情報に基づいて、操作オブジェクト40を描画し、タッチスクリーン2に表示する(ステップS6)。例えば、図6の例2のように横スライド操作が行われた場合には、操作オブジェクト描画PM84は、入力操作受付PM82から横スライド操作情報を取得し、図10の(A)に示すように、初期タッチ位置座標(接触開始点)から現在のタッチ位置座標(接触終了点)に向けて、すなわち矢印C´方向に操作オブジェクト40を引き延ばすように表示する。それと同時に、操作オブジェクト描画PM84は、キャラクタ制御PM90から取得したキャラクタ状態情報に基づいて、図10の(A)に示すように、操作オブジェクト40の基部42の内側に自キャラクタ100の状態に対応した情報(例えば、文字情報)を表示する。例えば、自キャラクタ100が地面に着地した状態でユーザが矢印Cの方向に横スライド操作を実行した場合には、操作オブジェクト40の基部42内には「Run」と表示される(図10の(A)参照)。なお、横スライド操作のスライド量が所定値以下の場合は、基部42内に「Run」の代わりに「Walk」と表示しても良い。また、自キャラクタ100が地面に着地した状態でユーザが上スライド操作あるいは斜め上スライド操作を実行した場合には、図10の(B)に示すように、自キャラクタ100がドラッグ操作の方向である矢印D方向に応じてジャンプするとともに、操作オブジェクト40が矢印D´方向に引き伸ばされ、操作オブジェクト40の基部42内に「Jump」と表示される。ステップS6の処理が完了すると、ステップS1へ戻り、処理を繰り返す。
 タッチスクリーン2上において、基部42内に表示される文字情報(「Run」や「Jump」)の表示角度は固定されていることが好ましい。すなわち、図10の(A),(B)に示すように、操作オブジェクト40の基部42に対する先端部44の角度に関わらず、文字情報が横書きである場合には、文字情報はタッチスクリーン2の下辺と略平行となる向きで表示される。例えば、接触開始点から下向き側にドラッグ操作が入力された場合や、接触開始点を中心にして接触終了点が回転するような入力操作が入力された場合にも、タッチスクリーン2上における文字情報の表示角度はユーザが見易い向きで表示されるため、良好な視認性を確保することができる。
 図11は、ユーザが自キャラクタ100に兜割りのアクションを実行させようとする場合のゲーム画面例であり、(A)は自キャラクタ100がジャンプしている状態の画面例を示し、(B)は、兜割りの入力操作が成功した場合の画面例を示し、(C)は兜割りの入力操作が失敗した場合の画面例を示している。
 兜割り(下方攻撃)は、図6の動作テーブル60の例5に示すように、自キャラクタ100が地面に着地していない状態(図11の(A)に示す状態)において下スライド操作がなされた時に実行可能となる。すなわち、制御部30は、ユーザの上スライド操作あるいは斜め上スライド操作に基づいて自キャラクタ100を地面に着地していないジャンプ状態とし、このジャンプ状態においてユーザの下スライド操作の入力を受け付けた場合に、自キャラクタ100に兜割りを実行させる。
 兜割りの入力操作が成功した場合、すなわちジャンプ状態において下スライド操作が入力された場合には、図11の(B)に示すように、制御部30は、自キャラクタ100に兜割りを実行させるとともに、操作オブジェクト40の基部42内に兜割りに関する情報(例えば、「Attack」)を表示する。一方、兜割りの入力操作が失敗した場合、例えばドラッグ操作の下方向への角度が足りなかった場合には、図11の(C)に示すように、制御部30は、自キャラクタ100に兜割りを実行させず、また、操作オブジェクト40の基部42内にはその時点での自キャラクタ100の状態に関する情報(例えば、「Jump」)を表示する。この場合、ユーザは、表示「Jump」を見ることで、ドラッグ操作の下方向への角度が足りなかったことを容易に認識することができる。このように、基部42内に文字情報を表示することで、兜割りのような複数の入力操作が必要な動作についても当該入力操作の成否をユーザに対して分かりやすくフィードバックすることができる。
 図12は、図11と同様に、ユーザが自キャラクタ100に兜割りのアクションを実行させようとする場合のゲーム画面例であり、(A)は自キャラクタ100がジャンプしている状態の画面例を示し、(B)は、兜割りの入力操作が成功した場合の画面例を示し、(C)は兜割りの入力操作が失敗した場合の画面例を示している。
 図11の場合と同様に、兜割りの入力操作が成功した場合には、図12の(B)に示すように、制御部30は、自キャラクタ100に兜割りを実行させるとともに、操作オブジェクト40の基部42内に兜割りに関する情報(例えば、「Attack」)を表示する。一方、兜割りの入力操作が失敗した場合、例えば上スライド操作や斜め上スライド操作に基づいてジャンプした自キャラクタ100が地面に着地してから下スライド操作が入力された場合には、図12の(C)に示すように、制御部30は、自キャラクタ100に兜割りを実行させず、また、基部42内にはその時点での自キャラクタ100の状態に関する情報(例えば、「Run」)を表示する。この場合、ユーザは、表示「Run」を見ることで、自キャラクタ100が地面に着地してから下スライド操作を行ったために入力操作に失敗したことを容易に認識することができる。
 以上説明したように、本実施形態によれば、制御部30は、ユーザの入力操作に基づいて、接触開始点から接触終了点に向けてタッチスクリーン2上に操作オブジェクト40を表示させつつ、自キャラクタ100に所定の動作を実行させる。そして、制御部30は、自キャラクタ100の状態を検出し、検出された自キャラクタ100の状態に関連付けられた所定の情報(例えば、上記説明した文字情報)を、タッチスクリーン2上の操作オブジェクト40の基部42内に表示させる。これにより、入力操作に対するフィードバックをユーザへ直感的に与えることが可能となる。
 自キャラクタ100の状態に関連付けられた文字情報は、操作オブジェクト40の拡大部である基部42内に表示されている。このように、タッチスクリーン2上のデッドスペースである操作オブジェクト40の拡大部に文字情報を表示させることで、スマートフォンのような狭い画面を有効利用することができる。
 上記の実施形態においては、図10~12に示すように、操作オブジェクト40の拡大部である基部42の内側に自キャラクタ100の状態に関する文字情報を表示しているが、これに限定されない。図13に示すように、操作オブジェクト40から吹き出し48のような形で、自キャラクタ100の状態に関する情報(例えば、「Run」)を表示するようにしても良い。すなわち、自キャラクタ100に関する情報は操作オブジェクト40に付随するように表示されていれば良い。
 また、上記の実施形態においては、図7等に示すように、基部42を先端部44よりも大きくするように操作オブジェクト40を形成しているが、これに限定されない。図14の操作オブジェクト140に示すように、先端部144を基部142よりも大きく形成してもよい。この場合、自キャラクタ100の状態に関する情報(例えば、「Run」)は、拡大部である先端部144内に表示される。
 また、操作オブジェクト40に付随して表示されるキャラクタ状態情報は、文字情報に限られず、図形等のその他の記号であっても良い。
<3.操作オブジェクトの表示処理の説明>
 図15~図17を参照して、本実施形態に係るゲームプログラムにおける操作オブジェクトの表示処理について説明する。
 図15のステップS1ー1において、制御部30は、ユーザの指などがタッチスクリーン2へ接近したか(接近操作が入力された)否かを、タッチセンシング部10から入力操作受付部32へ出力された信号により判定する。接近操作が入力されたと判定された場合には(ステップS1ー1のYes)、ステップS2ー1において、制御部30は、指などがタッチスクリーン2上に接近した位置(接触開始点)が図16に示すUI画像300の当たり判定エリア301(所定領域の一例)内にあるか否かを判定する。当たり判定エリア301は、その領域内での入力操作をUI画像300の操作に関連付けるための領域であって、図16の(A)に示すように、例えば、UI画像300の表示領域よりも一回り大きい領域として設定されている。なお、当たり判定エリア301は、UI画像300の表示領域と一致する大きさの領域として設定されても良い。ステップS2ー1で接触開始点が当たり判定エリア301外にあると判定された場合には(ステップS2ー1のNo)、ステップS3ー1において、制御部30は、図7の(A)に示すように、接触開始点に関連付けられた基準位置の周囲に操作オブジェクト40の基部42を表示させる。その後、接触開始点から接触終了点へ向けてドラッグ操作が入力された場合には、ステップS4ー1において、制御部30は、図7の(B)に示すように操作オブジェクト40を、ユーザの指に引っ張られるように弾性変形して表示させる。次いで、ステップS5ー1において、制御部30は、ユーザの指がタッチスクリーン2から離れたか(リリース操作が入力されたか)否かを判定する。リリース操作が入力されたと判定された場合には(ステップS5ー1のYes)、制御部30は、操作オブジェクト40を非表示とし、ステップS1ー1へ処理を戻す。
 一方、図16の(A)に示すように、ステップS2ー1で接触開始点Psが当たり判定エリア301内にあると判定された場合には(ステップS2ー1のYes)、ステップS6ー1において、制御部30は、ドラック動作の接触終了点がUI画像300の当たり判定エリア301内にあるか否かを判定する。このとき、操作オブジェクト40は表示されない。接触終了点が当たり判定エリア301内にあると判定された場合には(ステップS6ー1のYes)、ステップS7ー1において、制御部30は、接触終了点からユーザの指などが離れたか(リリース操作が入力されたか)否かを判定する。当たり判定エリア301内でリリース操作が入力されたと判定された場合には(ステップS7ー1のYes)、ステップS8ー1において、制御部30は、UI画像300の操作を可能とする。具体的には、図16の(B)に示すように、接触開始点Psおよびリリース操作が入力された位置(タッチオフ位置)Pfのいずれも当たり判定エリア301内にある場合には、制御部30は、UI画像300に関連付けられた操作(例えば、アクション)を実行する。例えば、UI画像300がスキル発動用のUI画像300C(図4参照)である場合には、制御部30は、自キャラクタ100に所定のスキルを発動させる。その後、制御部30は、ステップS1ー1へ処理を戻す。なお、図16の例では、UI画像300と操作オブジェクト40との重複表示を避けるために、ステップS6ー1において、操作オブジェクト40を表示させていないが、この例に限られない。例えば、ステップS6ー1において、制御部30は、操作オブジェクト40をUI画像300と重複するように表示させ、ステップS7ー1でタッチオフ位置Pfが当たり判定エリア301内にあると判定された場合に、操作オブジェクト40を非表示とするようにしても良い。
 一方、ステップS6ー1で接触終了点が当たり判定エリア301外にあると判定された場合には(ステップS6ー1のNo)、ステップS9ー1において、制御部30は、操作オブジェクト40の表示のための基準位置が当たり判定エリア301外の所定位置に配置されるように、当該基準位置を更新する。図16の(C)に示すように、接触終了点Peが当たり判定エリア301外にある場合には、更新後の基準位置Ps´を、接触開始点Psと接触終了点Peとを結ぶ仮想直線L上における当たり判定エリア301外の所定位置に設定することが好ましい。なお、ステップS9ー1では、基準位置Ps´が当たり判定エリア301外の所定位置となるよう更新されるため、制御部30は、UI画像300に関連付けられた操作(アクション)を実行しない。
 続いて、ステップS10ー1において、制御部30は、図16の(D)に示すように、基準位置Ps´の周囲に操作オブジェクト40の基部42を表示させるとともに、基準位置Ps´から接触終了点Peまで操作オブジェクト40を弾性変形して表示させる。また、ユーザが接触終了点を接触状態に維持しつつタッチスクリーン2上において更に指などを移動させた場合、例えば、図16の(E)に示すように、接触終了点Pe´が更新された場合には、操作オブジェクト40の先端部44がそれに追従して更に移動することで操作オブジェクト40の延びる向きが変化する。
 続いて、ステップS11ー1において、制御部30は、リリース操作が入力されたか否かを判定する。リリース操作が入力されたと判定された場合には(ステップS11ー1のYes)、ステップS12ー1において、制御部30は、弾性変形した操作オブジェクト40を更新後の基準位置Ps´に向けて段階的に萎縮して、図7の(A)に示した初期形状となるよう復元表示させ、一定時間経過後に復元表示した操作オブジェクト40を非表示とする。その後、制御部30は、ステップS1ー1へ処理を戻す。
 なお、図17の(A)に示すように、接触終了点Peが当たり判定エリア301の外に出ると、その時点で基準位置Ps´が当たり判定エリア301外の所定位置となるように更新される。そして、図17の(B)に示すように、ユーザが再度当たり判定エリア301内に指を戻してからリリース操作を入力したとしても、すなわち、接触終了点Peが当たり判定エリア301外に一度出てから接触終了点Peやタッチオフ位置Pfが当たり判定エリア301内に含まれたとしても、基準位置Ps´が当たり判定エリア301内となるようにさらに更新されることはない。そのため、この場合は、制御部30は、UI画像300に関連付けられたアクションを実行しない。
 以上説明したように、本実施形態によれば、制御部30は、ユーザの指などによるタッチスクリーン2への入力操作に基づいて、接触開始点Psに関連付けられた基準位置から接触終了点Peに向けて、タッチスクリーン2上に操作オブジェクト40を表示させつつ、当該入力操作に基づいて、自キャラクタ100に所定の動作を実行させる。そして、制御部30は、接触開始点Psおよび接触終了点Peがそれぞれタッチスクリーン2上に表示されているUI画像300の当たり判定エリア301内にあるか否かを判定し、接触開始点Psが当たり判定エリア301内にあり、かつ、接触終了点Peが当たり判定エリア301外にあると判定された場合には、基準位置Ps´が当たり判定エリア301外に配置されるようにその基準位置Ps´を更新する。これにより、ユーザが誤ってUI画像300にタッチした場合にも、ユーザは、タッチ操作を再度やり直すことなく操作オブジェクト40の操作を実行することができる。そのため、直感的な操作が可能となり、操作性が向上される。
 また、更新後の基準位置Ps´を、接触開始点Psと接触終了点Peとを結ぶ仮想直線L上における当たり判定エリア301外の所定位置に設定することで、スライド操作に追従した操作オブジェクトの表示が可能となる。
 当たり判定エリア301は、UI画像300の表示領域と一致するか、あるいはUI画像300の表示領域よりも大きい領域となるよう設定することが好ましい。これにより、更新後の基準位置Ps´を基準として操作オブジェクト40(の基部42)が表示された場合でもUI画像300の視認性を必要以上に損なうことがない。
 ステップS6ー1において、制御部30は、接触開始点Psおよび接触終了点Peが当たり判定エリア301内にあると判定された場合には、UI画像300に関連付けられた操作を可能とする一方、接触終了点Peが当たり判定エリア301外であると判定された場合にはUI画像300に関連付けられた操作を可能としない。これにより、UI画像300に関連付けられた操作と操作オブジェクト40の操作とが重複して可能とされることがないため、操作性を向上させることができる。
 ステップS6ー1において接触終了点Peが当たり判定エリア301外にあると判定された後で、接触終了点Peが再び当たり判定エリア301内に戻ったと判定された場合には、制御部30は、UI画像300に関連付けられた操作を可能としなくても良い。一旦、接触終了点Peが当たり判定エリア301外に出た場合には、ユーザはUI画像300ではなく操作オブジェクト40を操作することを要求していると解されるため、UI画像300は操作できないようにすることが好ましい。
 ステップS6ー1において接触開始点Psおよび接触終了点Peが当たり判定エリア301内にあると判定された場合には、制御部30は、操作オブジェクト40を表示しなくても良い。これにより、UI画像300に対する操作と、操作オブジェクト40の操作とが重複することが無く、操作性をより向上させることができる。
<3.UI画像(操作キー)の表示処理の説明>
 図18~図22を参照して、本実施形態に係るゲームプログラムにおける操作キーの表示処理について説明する。
 図18のステップS1-2において、制御部30は、ユーザの指などがタッチスクリーン2へ接近したか(接近操作が入力された)否かを、タッチセンシング部10から入力操作受付部32へ出力された信号により判定する。接近操作が入力されたと判定された場合には(ステップS1-2のYes)、ステップS2-2において、制御部30は、接触終了点の位置を検出する。そして、ステップS3-2において、制御部30は、接触終了点が、接近操作が検出された位置(接触開始点)を含む一定領域内に含まれるか否かを判定する。接触終了点が接近開始点を含む一定領域内に含まれていない、すなわち、接触開始点と接触終了点とが一定距離以上離れていると判定された場合には(ステップS3-2のNo)、ステップS4-2において、制御部30は、ユーザが自キャラクタ100の操作を要求していると判断し、接触開始点と接触終了点とによって規定されるベクトル(図5の(D)参照)に基づいて、自キャラクタ100に所定の動作を実行させる。このとき、制御部30は、ステップS5-2において、接触開始点の周囲に図7に示す操作オブジェクト40の基部42を表示し、接触終了点に基づいて操作オブジェクト40を弾性変形させる。なお、操作オブジェクト40は、表示させなくても良い。その後、ステップS1-2へと戻り、処理が繰り返される。
 一方、接触終了点が接近開始点を含む一定領域内に含まれると判定された場合には(ステップS3-2のYes)、ステップS6-2において、制御部30は、接近操作が継続している時間が一定時間を超えたか否かを判定する。すなわち、ここでは、制御部30は、ユーザの入力操作が「長押し操作」であるか否かを判定する。ユーザの入力操作が「長押し操作」であると判定された場合には(ステップS6-2のYes)、ステップS7-2において、制御部30は、タッチスクリーン2上に所定のUI画像60(図19参照)を表示する。
 図19に示すように、UI画像60は、ベース部62と、第一の操作キー64(第一の操作オブジェクトの一例)と、第二の操作キー66(第二の操作オブジェクトの一例)とから構成されている。ベース部62の部分には、例えば、略円形状の画像を表示しても良く、特に画像を表示しなくても良い。すなわち、ベース部62は、第一の操作キー64および第二の操作キー66の配置関係を決定するための基準として構成されていれば良い。第一の操作キー64は、第一から第三のアイコン64A~64Cから構成されている。第一のアイコン64Aは、タッチスクリーン2上に現在表示されている(すなわち、ユーザにより選択されている)自キャラクタ100に対応している。第二のアイコン64Bは、ユーザ選択により自キャラクタ100と変更可能なキャラクタ120に対応している。第三のアイコン64Cは、ユーザ選択により自キャラクタ100と変更可能であってキャラクタ120とは異なるキャラクタ140-1に対応している。第二の操作キー66は、現在選択中のキャラクタのスキルを発動させるための操作キーである。
 第一のアイコン64Aには、現在使用中のキャラクタ(自キャラクタ100)を示す情報(例えば「使用中」)が表示されている。第一のアイコン64Aは、タッチスクリーン2上に現在表示されている自キャラクタ100に対応するアイコンであるため、選択不能な状態で表示されていることが好ましい。すなわち、ユーザが第一のアイコン64A上でリリース操作を行ったとしても、何らのアクションも実行されない。第二のアイコン64Bおよび第三のアイコン64Cには、自キャラクタ100と変更可能なキャラクタ120,140-1の情報(例えば、キャラクタ120,140-1の顔)がそれぞれ表示されている。第二の操作キー66には、例えば「スキル」と表示されている。
 これらの操作キー64,66は、長押し操作がされた接触開始点(すなわち、ベース部62)から左側に所定距離だけ離れてベース部62に対して放射状となるように配列されている。第一の操作キー64(各アイコン64A~64C)および第二の操作キー66は、操作入力が入力された位置であるベース部62に対して、それぞれの配置関係が固定されている。例えば、ベース部62の左側領域において、上から、第二の操作キー66、第一のアイコン64A、第二のアイコン64B、第三のアイコン64Cの順に、タッチスクリーン2の左右方向に対して非対称となるように配置されている。
 なお、図19に示す例においては、ユーザが右手の指でタッチスクリーン2を操作するものと仮定して、右手指で操作しやすいように、ベース部62の左側領域に第一の操作キー64および第二の操作キー66を配置しているが、この例に限られない。例えば、左手指で操作する場合には、ユーザの選択操作によりベース部62の右側領域にこれらの操作キーを配置しても良い。この場合も、各操作キー64,66の配置関係は固定されている。すなわち、ユーザの右手による入力操作の場合とユーザの左手による入力操作の場合とで第一の操作キー64(各アイコン64A~64C)および第二の操作キー66の配置が左右対称に切り替え可能であっても良い。このように、ユーザが右手と左手のどちらでタッチスクリーン2を操作するかに応じてベース部62に対して操作キー64,66の配置を左右対称に切り替えることで、操作性をさらに向上させることができる。
 続いて、ステップS8-2において、制御部30は、リリース操作が入力されたか否かを判定する。リリース操作が入力されたと判定された場合には(ステップS8-2のYes)、ステップS9-2において、制御部30は、リリース操作が入力された位置(タッチオフ位置)が各操作キー64,66の領域に含まれるか否かを判定する。タッチオフ位置が各操作キー64,66の領域に含まれないと判定された場合には(ステップS9-2のNo)、ステップS10-2において、制御部30は、ユーザが各操作キー64,66に対応する操作を要求していないと判断し、何らのアクションも実行せずにUI画像60を非表示とする。その後、ステップS1-2へと戻り、処理が繰り返される。
 一方、タッチオフ位置が各操作キー64,66の領域に含まれていると判定された場合には(ステップS9-2のYes)、ステップS11-2において、制御部30は、選択された操作キーに対応する操作を実行する。例えば、図20の(A)に示すように、第三のアイコン64C上でリリース操作が入力されたと判定された場合には、図20の(B)に示すように制御部30は、自キャラクタ100の代わりに第二のアイコン64Cに対応するキャラクタ140-1をタッチスクリーン2上に表示させるとともに、UI画像60を非表示とする。その後、ステップS1-2へと戻り、処理が繰り返される。
 図21は、タッチスクリーン2上に表示されるキャラクタが、自キャラクタ100から別のキャラクタ140-1に変更された後で、長押し操作が入力された場合のUI画像60を示している。
 この場合、タッチスクリーン2上に現在表示されているキャラクタ140-1に対応する第三のアイコン64Cには「使用中」と表示され、当該第三のアイコン64Cは選択不能な状態となっている。また、第一のアイコン64Aおよび第二のアイコン64Bには、キャラクタ140-1と変更可能なキャラクタ100,120の顔がそれぞれ表示されている。このように、キャラクタ変更用のアイコンとして、現在選択されているキャラクタに対応するアイコンも選択不能な状態で表示させることで、各アイコン64A~64Cの配置関係を固定して表示することができる。
 図22の(A)および(B)は、長押し操作が入力された状態(UI画像60が表示された状態)から所定方向にスライド(ドラッグ)操作が入力された場合の画面例を示している。
 ステップS7-2において、長押し操作によりUI画像60が表示された状態でドラッグ操作が入力されると、制御部30は、接触開始点から接触終了点までのドラッグ操作が一定速度以下であるか否かを判定する。ドラッグ操作の速度は、例えば、ドラッグ操作の接触開始点から接触終了点までのスライド量とフレーム数に基づいて検出することができる。ドラッグ操作の検出速度が所定の閾値以下の場合には、制御部30は、UI画像60をドラッグ操作に追随させて移動させつつ、キャラクタ100をドラッグ操作に応じて操作する(移動や、ジャンプなど)。例えば、図22の(A)に示すように、長押し操作によりUI画像60が表示された状態からユーザが矢印Cの方向にドラッグ操作を行うと、制御部30は、UI画像60を表示させたまま、そのドラッグ操作の方向に基づいて、自キャラクタ100に所定の動作を実行させるとともにUI画像60を移動させる。例えば、ドラッグ方向が斜め上方向である場合には、図22の(B)に示すように、当該ドラッグ方向に基づいて、操作オブジェクト40を弾性変形させながら表示させつつ、キャラクタ100をジャンプさせる。それと同時に、制御部30は、UI画像60を、第一の操作キー64(アイコン64A~64C)および第二の操作キー66の配置関係を維持しながら、ドラッグ方向に応じて移動させる。これにより、キャラクタ100を別のキャラクタに変更できる状態を維持しつつ、現在表示されているキャラクタを操作することができる。このとき、ドラッグ操作の接触終了点には常にUI画像60のベース部62が配置されるため、各操作キー64,66は選択することができない。
 一方、ドラッグ操作が一定速度よりも速い場合には、制御部30は、UI画像60をドラッグ操作に追随して移動させないようにし、各操作キー64,66を選択可能とする。すなわち、この場合、ユーザは、各操作キー64、66上でリリース操作を行って、各操作キー64,66を選択することができる。このように、ドラッグ操作の速度に応じて、自キャラクタ100の操作と各操作キー64,66の操作とを切り替えることで、操作性の自由度を向上させることができる。
 以上説明したように、本実施形態によれば、制御部30は、タッチスクリーン2上の任意位置に対するユーザの長押し操作に基づいて、タッチスクリーン2に自キャラクタ100を変更するための第一の操作キー64(UI画像60)を表示させ、ユーザが第一の操作キー64を選択操作することで、タッチスクリーン2に表示されている自キャラクタ100を異なるキャラクタ(例えば、キャラクタ140-1)へと変更する。これにより、通常時にはタッチスクリーン2に表示された空間内の操作領域や視認可能範囲に影響を与えることなく、ユーザによる長押し操作時のみに自キャラクタ100を変更するためのUI画像60を提供することができる。
 また、UI画像60は、各アイコン64A~64Cや第二の操作キー66の配置関係が固定されて表示されるため、各操作キー64,66の位置をユーザが記憶することができる。これにより、各キャラクタ100,120,140-1に対応するアイコン64A~64Cやスキル発動用の操作キー66の位置をユーザが記憶することができるため、ユーザはUI画像60の表示を視認することなくキャラクタの変更やスキル発動を実行することができる。
 上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
 [付記事項1]
 特許文献2に開示のようなビデオゲーム(例えば、いわゆるスマホゲーム)において、キャラクタオブジェクトを所定の状態とするためには、ユーザが所定の入力操作を行う必要がある。しかしながら、従来は、入力操作結果のユーザに対するフィードバックが不十分であったため、ユーザの入力操作に誤りがあった場合に、なぜ入力に失敗したのかユーザが直感的に把握することが難しかった。
 (項目1)本開示の一実施形態に係るゲーム方法は、ユーザの入力操作に従って、タッチスクリーンに表示されるキャラクタオブジェクトを制御するゲーム方法であって、
 当該ゲーム方法は、
 (a)前記入力操作の開始点から前記入力操作の終了点に向けて、前記タッチスクリーン上に操作オブジェクトを表示させるステップと、
 (b)前記入力操作に基づいて、前記キャラクタオブジェクトに所定の動作を実行させるステップと、
 (c)前記ステップ(b)における前記キャラクタオブジェクトの状態を検出するステップと、
 (d)検出された前記キャラクタオブジェクトの前記状態に関連付けられた所定の情報を、前記操作オブジェクトに付随して前記タッチスクリーン上に表示させるステップと、を含む。
 上記方法によれば、入力操作に対するフィードバックをユーザへ直感的に与えることができる。
 (項目2)前記操作オブジェクトは、前記開始点と前記終了点との間に表示されるオブジェクトであり、
 前記ステップ(a)において、前記操作オブジェクトは、前記基準点側の部分および前記終了点側の部分のいずれか一方が、他方の部分よりも大きい拡大部となるように表示され、
 前記ステップ(d)において、前記所定の情報は、前記拡大部の内側に表示されても良い。
 上記方法によれば、タッチスクリーン上のデッドスペースである操作オブジェクトの拡大部に状態表示情報を表示させることで、スマートフォンのような狭い画面を有効利用することができる。
 (項目3)前記ステップ(d)において、前記開始点と前記終了点との位置関係に関わらず、前記タッチスクリーン上における前記所定の情報の表示角度は固定されていても良い。
 上記方法によれば、操作オブジェクト内に表示された情報の視認性を確保することができる。
 (項目4)前記ステップ(b)において、第一の入力操作を行うことで前記キャラクタオブジェクトを第一の状態とし、前記第一の状態において第二の入力操作を行うことで前記所定の動作が実行されても良い。
 (項目5)前記ステップ(b)において、第一の入力操作を行うことで前記キャラクタオブジェクトを第一の状態とした後に第二の状態とし、前記第一の状態または前記第二の状態において第二の入力操作を行うことで前記所定の動作が実行されても良い。
 これらの方法によれば、複数の入力操作が必要な動作(アクション)についても、当該入力操作の成否をユーザに対して分かりやすくフィードバックすることができる。
 (項目6)本開示の一実施形態に係るプログラムは、上記(項目1)から(項目5)のいずれかに記載のゲーム方法をコンピュータに実行させるためのプログラムである。
 この構成によれば、入力操作に対するフィードバックをユーザへ直感的に与えることが可能なプログラムを提供することができる。
 [付記事項2]
 ユーザが、キャラクタオブジェクトを移動させるためにタッチ操作を開始した場合に、誤ってUI画像をタッチしてしまうことがある。この場合、従来、UI画像を接触開始点としてスライド操作を入力しても、特許文献1に開示のような操作オブジェクトが表示されず、操作オブジェクトを表示させるためには、ユーザは手指等を一旦画面から離してから再度画面にタッチし直す必要があった。
 (項目1)本開示の一実施形態に係るゲーム方法は、ユーザの入力操作に従って、タッチスクリーンに表示されるキャラクタオブジェクトを制御するゲーム方法であって、
 当該ゲーム方法は、
 (a)前記入力操作の開始点に関連付けられた基準位置から前記入力操作の終了点に向けて、前記タッチスクリーン上に操作オブジェクトを表示させるステップと、
 (b)前記入力操作に基づいて、前記キャラクタオブジェクトに所定の動作を実行させるステップと、
 (c)前記開始点および前記終了点がそれぞれ前記タッチスクリーン上に表示されているユーザインターフェース画像の所定領域内にあるか否かを判定するステップと、
 (d)前記ステップ(c)において前記開始点が前記所定領域内にあり、かつ、前記終了点が前記所定領域外にあると判定された場合には、前記基準位置が前記所定領域外に配置されるように前記基準位置を更新するステップと、を含む。
 上記方法によれば、ユーザが誤ってユーザインターフェース画像にタッチした場合にも、タッチ操作をやり直すことなく操作オブジェクトの操作を実行することができる。これにより、直感的な操作が可能となり、操作性が向上される。
 (項目2)前記ステップ(d)において、前記基準位置を、前記開始点と前記終了点とを結ぶ直線上における前記所定領域外の所定位置に設定しても良い。
 上記方法によれば、スライド操作に追従した操作オブジェクトの表示が可能となる。
 (項目3)前記所定領域は、前記ユーザインターフェース画像の表示領域と一致するか、あるいは前記表示領域よりも大きい領域であっても良い。
 上記方法によれば、操作オブジェクトが表示された場合でもユーザインターフェース画像の視認性を必要以上に損なうことがない。
 (項目4)前記ステップ(c)において前記開始点および前記終了点が前記所定領域内にあると判定された場合には、前記ユーザインターフェース画像に関連付けられた操作を可能とする一方、前記終了点が前記所定領域外であると判定された場合には前記ユーザインターフェース画像に関連付けられた操作を可能としないステップをさらに含んでも良い。
 上記方法によれば、ユーザインターフェース画像に関連付けられた操作と操作オブジェクトの操作とが重複して実行可能とされることがないため、操作性を向上させることができる。
 (項目5)前記ステップ(d)において前記終了点が前記所定領域外にあると判定された後で、前記終了点が再び前記所定領域内に戻ったと判定された場合には、前記ユーザインターフェース画像に関連付けられた操作を可能としなくても良い。
 一旦、終了点が所定領域外に出た場合には、ユーザはユーザインターフェース画像ではなく操作オブジェクトを操作することを要求していると解されるため、ユーザインターフェース画像は操作できないようにすることが好ましい。
 (項目6)(f)前記ステップ(c)において前記開始点および前記終了点が前記所定領域内にあると判定された場合には、前記操作オブジェクトを表示しないステップをさらに含んでも良い。
 上記方法によれば、ユーザインターフェース画像に対する操作と、操作オブジェクトの操作とが重複して実行可能とされることが無く、操作性をより向上させることができる。
 (項目7)本開示の一実施形態に係るゲームプログラムは、上記(項目1)から(項目6)のいずれかに記載のゲーム方法をコンピュータに実行させるためのゲームプログラムである。
 この構成によれば、ユーザが誤ってユーザインターフェース画像にタッチした場合であっても、タッチ操作をやり直すことなく操作オブジェクトの操作を実行可能なゲームプログラムを提供することができる。
 特許文献4に開示のように、キャラクタオブジェクト変更用のアイコンをタッチスクリーンに表示させると、タッチスクリーン内の操作領域が狭くなったり、タッチスクリーンに表示されるゲーム空間内の視認可能範囲が狭まってしまうため、改善の余地がある。
 (項目1)本開示の一実施形態に係るゲーム方法は、ユーザの入力操作に従って、タッチスクリーンに表示されるキャラクタオブジェクトを制御するゲーム方法であって、
 当該ゲーム方法は、
 (a)前記タッチスクリーン上の任意位置に対する前記入力操作に基づいて、前記タッチスクリーンに前記キャラクタオブジェクトを変更するための第一の操作オブジェクトを表示させるステップと、
 (b)前記ユーザが前記第一の操作オブジェクトを選択操作することで、前記タッチスクリーンに表示されている第一のキャラクタオブジェクトを第二のキャラクタオブジェクトへと変更するステップと、を含む。
 上記方法によれば、通常はタッチスクリーン上に表示された空間内の操作領域や視認可能範囲に影響を与えずに、ユーザによる所定の操作時のみにキャラクタオブジェクトを変更するためのユーザインターフェースを提供することができる。
 (項目2)前記ステップ(a)で表示される前記第一の操作オブジェクトは、前記第一のキャラクタオブジェクトに関連付けられた第一のアイコンと、前記第二のキャラクタオブジェクトに関連付けられた第二のアイコンとを含み、
 前記ステップ(a)において、前記第一のアイコンと前記第二のアイコンとの配置関係が固定されていても良い。
 上記方法によれば、各キャラクタに対応するアイコンの位置をユーザが記憶することができるため、ユーザは操作オブジェクトの表示を視認することなくキャラクタオブジェクトの変更が可能となる。
 (項目3)前記ステップ(a)において、前記第一のアイコンは選択不能な状態で表示されていても良い。
 アイコンの配置関係を固定するために、第一のキャラクタオブジェクトに関連付けられた第一のアイコンを選択不能な状態で所定の位置に表示させておくことが好ましい。
 (項目4)前記第一のアイコンおよび前記第二のアイコンは、前記タッチスクリーンの左右方向に対して非対称となるように配置され、
 前記ユーザの右手による入力操作の場合と前記ユーザの左手による入力操作の場合とで前記第一のアイコンおよび前記第二のアイコンの配置が左右対称に切り替え可能であっても良い。
 上記方法によれば、ユーザが右手と左手のどちらでタッチスクリーンを操作するかに応じてアイコンの配置を切り替えることで操作性をさらに向上させることができる。
 (項目5)前記ステップ(a)において、前記第一の操作オブジェクトに加えて、前記第一のキャラクタオブジェクトおよび前記第二のキャラクタオブジェクトのうち前記タッチスクリーン上に表示されているキャラクタオブジェクトに所定の動作を実行させるための第二の操作オブジェクトを表示させても良い。
 上記方法によれば、通常はタッチスクリーンの操作領域や視認可能範囲に影響を与えることなく、ユーザによる長押し操作時にのみキャラクタオブジェクトの動作実行用のユーザインターフェースも提供することができる。
 (項目6)前記ステップ(a)において、前記第一の操作オブジェクトと前記第二の操作オブジェクトとの配置関係が固定されていても良い。
 上記方法によれば、各操作オブジェクトの位置をユーザが記憶することができるため、ユーザは画面表示を視認することなくキャラクタオブジェクトの変更や動作の実行が可能となる。
 (項目7)(c)前記ステップ(a)で前記入力操作としての長押し操作が入力された状態から所定方向にスライド操作が入力された場合には、前記所定方向に基づいて、前記第一のキャラクタオブジェクトおよび前記第二のキャラクタオブジェクトのうち前記タッチスクリーン上に表示されているキャラクタオブジェクトに所定の動作を実行させるとともに前記操作オブジェクトを移動させるステップをさらに含んでも良い。
 上記方法によれば、キャラクタオブジェクトを変更できる状態を維持しつつキャラクタオブジェクトを操作することができる。
 (項目8)前記ステップ(c)において、前記スライド操作が一定速度以下の場合にのみ、前記操作オブジェクトを移動させても良い。
 スライド操作が一定速度以下の場合にはキャラクタオブジェクトを操作可能とする一方で、スライド操作が一定速度よりも速い場合には操作オブジェクトを操作可能とすることで、操作性の自由度を向上させることができる。
 (項目9)本開示の一実施形態に係るゲームプログラムは、上記(項目1)から(項目8)のいずれかに記載のゲーム方法をコンピュータに実行させるためのゲームプログラムである。
 この構成によれば、通常はタッチスクリーン上に表示された空間内の操作領域や視認可能範囲に影響を与えずに、ユーザによる所定の操作時のみにキャラクタオブジェクトを変更するためのユーザインターフェースを備えたゲームプログラムを提供することができる。
 1:ユーザ端末、2:タッチスクリーン、3:CPU、4:主記憶、5:補助記憶、6:送受信部、7:表示部、8:入力部、10:タッチセンシング部、20:表示部、30:制御部、32:入力操作受付部、34:キャラクタ操作検出部、36:オブジェクト制御部、38:表示制御部、40:操作オブジェクト、42:基部、44:先端部、46:接続部、53:バッファメモリ、55:初期タッチ位置座標、60:動作テーブル、80:操作オブジェクト制御プログラムモジュール、82:入力操作受付プログラムモジュール、84:操作オブジェクト描画プログラムモジュール、90:キャラクタ制御プログラムモジュール、100:自キャラクタ(プレイヤキャラクタ、キャラクタオブジェクトの一例)、200:相手キャラクタ
 

Claims (6)

  1.  ユーザの入力操作に従って、タッチスクリーンに表示されるキャラクタオブジェクトを制御するゲーム方法であって、
     (a)前記入力操作の開始点から前記入力操作の終了点に向けて、前記タッチスクリーン上に操作オブジェクトを表示させるステップと、
     (b)前記入力操作に基づいて、前記キャラクタオブジェクトに所定の動作を実行させるステップと、
     (c)前記ステップ(b)における前記キャラクタオブジェクトの状態を検出するステップと、
     (d)検出された前記キャラクタオブジェクトの前記状態に関連付けられた所定の情報を、前記操作オブジェクトに付随して前記タッチスクリーン上に表示させるステップと、を含む、ゲーム方法。
  2.  前記操作オブジェクトは、前記開始点と前記終了点との間に表示されるオブジェクトであり、
     前記ステップ(a)において、前記操作オブジェクトは、前記基準点側の部分および前記終了点側の部分のいずれか一方が、他方の部分よりも大きい拡大部となるように表示され、
     前記ステップ(d)において、前記所定の情報は、前記拡大部の内側に表示される、請求項1に記載の方法。
  3.  前記ステップ(d)において、前記開始点と前記終了点との位置関係に関わらず、前記タッチスクリーン上における前記所定の情報の表示角度は固定されている、請求項1または2に記載の方法。
  4.  前記ステップ(b)において、第一の入力操作に基づいて前記キャラクタオブジェクトを第一の状態とし、前記第一の状態において第二の入力操作に基づいて前記所定の動作が実行される、請求項1から3のいずれか一項に記載の方法。
  5.  前記ステップ(b)において、第一の入力操作に基づいて前記キャラクタオブジェクトを第一の状態とした後に第二の状態とし、前記第一の状態または前記第二の状態において第二の入力操作に基づいて前記所定の動作が実行される、請求項1から3のいずれか一項に記載の方法。
  6.  請求項1~5のいずれか一項に記載のゲーム方法をコンピュータに実行させるためのゲームプログラム。
     
PCT/JP2017/039494 2016-11-01 2017-11-01 ゲーム方法およびゲームプログラム Ceased WO2018084169A1 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2016-214179 2016-11-01
JP2016-214178 2016-11-01
JP2016-214177 2016-11-01
JP2016214177A JP6180610B1 (ja) 2016-11-01 2016-11-01 ゲーム方法およびゲームプログラム
JP2016214178A JP6189515B1 (ja) 2016-11-01 2016-11-01 ゲーム方法およびゲームプログラム
JP2016214179A JP6216862B1 (ja) 2016-11-01 2016-11-01 ゲーム方法およびゲームプログラム

Publications (1)

Publication Number Publication Date
WO2018084169A1 true WO2018084169A1 (ja) 2018-05-11

Family

ID=62076224

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/039494 Ceased WO2018084169A1 (ja) 2016-11-01 2017-11-01 ゲーム方法およびゲームプログラム

Country Status (1)

Country Link
WO (1) WO2018084169A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053021A (ja) * 2018-09-26 2020-04-02 株式会社Cygames プログラム、電子装置、及び方法
US12121797B2 (en) 2018-09-26 2024-10-22 Cygames, Inc. Program, electronic device, and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009240620A (ja) * 2008-03-31 2009-10-22 Sega Corp オブジェクト表示制御方法、オブジェクト表示制御装置、記録媒体、及びプログラム
JP2015008983A (ja) * 2013-06-28 2015-01-19 株式会社バンダイナムコゲームス プログラムおよびゲーム装置
US20150157932A1 (en) * 2012-07-06 2015-06-11 WEMADE ENTERTAINMENT CO., LTD a corporation Method of processing user gesture inputs in online game
JP2015222595A (ja) * 2014-04-04 2015-12-10 株式会社コロプラ ユーザインターフェースプログラムおよびゲームプログラム
JP2015229081A (ja) * 2014-06-06 2015-12-21 株式会社セガゲームス プログラム及び端末装置
JP2016120039A (ja) * 2014-12-25 2016-07-07 株式会社コロプラ ゲームプログラム
JP2016134052A (ja) * 2015-01-21 2016-07-25 株式会社コロプラ インターフェースプログラム及びゲームプログラム
JP5981617B1 (ja) * 2015-08-20 2016-08-31 株式会社コロプラ ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009240620A (ja) * 2008-03-31 2009-10-22 Sega Corp オブジェクト表示制御方法、オブジェクト表示制御装置、記録媒体、及びプログラム
US20150157932A1 (en) * 2012-07-06 2015-06-11 WEMADE ENTERTAINMENT CO., LTD a corporation Method of processing user gesture inputs in online game
JP2015008983A (ja) * 2013-06-28 2015-01-19 株式会社バンダイナムコゲームス プログラムおよびゲーム装置
JP2015222595A (ja) * 2014-04-04 2015-12-10 株式会社コロプラ ユーザインターフェースプログラムおよびゲームプログラム
JP2015229081A (ja) * 2014-06-06 2015-12-21 株式会社セガゲームス プログラム及び端末装置
JP2016120039A (ja) * 2014-12-25 2016-07-07 株式会社コロプラ ゲームプログラム
JP2016134052A (ja) * 2015-01-21 2016-07-25 株式会社コロプラ インターフェースプログラム及びゲームプログラム
JP5981617B1 (ja) * 2015-08-20 2016-08-31 株式会社コロプラ ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MATSUURA, KENICHIRO: "Game Algorithms Collection for iOS", KK GIJUTSU-HYOHRON, 15 May 2015 (2015-05-15), pages 70 - 84 , 95-100 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053021A (ja) * 2018-09-26 2020-04-02 株式会社Cygames プログラム、電子装置、及び方法
JP7471782B2 (ja) 2018-09-26 2024-04-22 株式会社Cygames プログラム、電子装置、及び方法
US12121797B2 (en) 2018-09-26 2024-10-22 Cygames, Inc. Program, electronic device, and method

Similar Documents

Publication Publication Date Title
US11752432B2 (en) Information processing device and method of causing computer to perform game program
JP6054892B2 (ja) 複数のディスプレイに対するアプリケーション画像の表示方法、電子機器およびコンピュータ・プログラム
KR101981158B1 (ko) 사용자 인터페이스를 위한 인터랙션 방법
JP6180610B1 (ja) ゲーム方法およびゲームプログラム
JP2014506364A (ja) タッチディスプレイ用仮想コントローラ
KR20120136796A (ko) 문자 입력 인터페이스 제공 방법 및 장치
JP5676036B1 (ja) ユーザインターフェースプログラム及び当該プログラムを備えたゲームプログラム
JP6216862B1 (ja) ゲーム方法およびゲームプログラム
JP6480531B1 (ja) ゲームプログラム、情報処理装置および方法
JP2016129579A (ja) インターフェースプログラム及びゲームプログラム
JP6969516B2 (ja) プログラム及び情報処理装置
JP5953418B1 (ja) ユーザ入力の操作性を向上させるプログラム、電子装置、システム及び方法
US20180173398A1 (en) Touch panel type information terminal device, information input processing method and program thereof
JP6333779B2 (ja) 表示制御装置、表示制御方法、及びそれをコンピュータで実行するためのコンピュータ・プログラム
JP6189515B1 (ja) ゲーム方法およびゲームプログラム
WO2018084169A1 (ja) ゲーム方法およびゲームプログラム
KR102545598B1 (ko) 가상 입력 툴을 제공하기 위한 전자 장치 및 방법
JP4856136B2 (ja) 移動制御プログラム
JP7086876B2 (ja) ゲームプログラム、情報処理装置および方法
US20150100912A1 (en) Portable electronic device and method for controlling the same
JP2018069032A (ja) ゲーム方法およびゲームプログラム
JP6453962B1 (ja) ゲームプログラム、情報処理装置および方法
JP2019058736A (ja) ゲームプログラム、情報処理装置および方法
JP2015097583A (ja) タッチパネルを備えるゲーム装置、その制御方法およびプログラム
JP2018069034A (ja) ゲーム方法およびゲームプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17866921

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17866921

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP